Перетяжка, Премия ТПрогер, 13.11
Перетяжка, Премия ТПрогер, 13.11
Перетяжка, Премия ТПрогер, 13.11

Искусственный интеллект: бег с ускорением по замкнутому кругу?

Аватарка пользователя Александр Красников
Отредактировано

Порассуждаем о том, к каким выводам приводит трезвый взгляд на ИИ

235 открытий5К показов
Искусственный интеллект: бег с ускорением по замкнутому кругу?

Хотя крупнейшие компании активно соревнуются в разработке ИИ, сами исследователи относятся к этому осторожно. Создание умных, этичных и безопасных ИИ-систем — пока дело будущего. О чём говорят эксперты и чего ждать дальше — рассказывает Александр Красников, техдиректор «Телфин».

Искусственный интеллект вошел в число трех главных стратегических приоритетов для 75% руководителей компаний во всем мире, показал опрос Boston Consulting Group. Но только четверть реально видит от него пользу. Главные тормоза — кибербезопасность, неясность с управлением ИИ и юридические вопросы. При этом лишь 10% компаний рассчитывают сократить персонал благодаря ИИ, а большинство (64%) уверены: человек и алгоритм скорее союзники, чем конкуренты.

Действительно, генеративный ИИ помогает специалистам решать всё больше прикладных задач в клиентском сервисе, маркетинге, на производстве. С появлением агентов (более продвинутых по сравнению с привычными ассистентами моделей, способных решать задачи самостоятельно), этот процесс начинает идти быстрее. 2025 год может стать периодом взлета ИИ-агентов (для 67% участников AI Radar они являются частью трансформации программ внедрения ИИ), ведь их производительность и скорость решений втрое выше, чем у традиционных виртуальных помощников и распространенных нейросетей.

Быстрый прогресс ИИ и LLM звучит впечатляюще, но не всё так однозначно. Эксперты советуют смотреть на вещи трезво: эффективность развития моделей вызывает сомнения. По данным AAAI, в декабре 2024 года даже лучшие ИИ от OpenAI и Anthropic смогли правильно ответить лишь на половину специально отобранных простых фактологических вопросов.

Проблема в том, что сейчас ИИ-модели в основном развиваются экстенсивным образом: наращиваются их вычислительные мощности. Это, возможно, тупиковый путь для ИИ, который никогда не приведет человечество к созданию общего искусственного интеллекта (AGI), способного думать на уровне человека. По крайней мере, 76% участников исследования AAAI высказали такое предположение.

ИИ-модели: дефицит точности и данных при росте мощностей

Искусственный интеллект: бег с ускорением по замкнутому кругу? 1

Еще в прошлом году представители OpenAI признавали, что результативность новых моделей немногим превышает достижения предыдущих. Это уже косвенно свидетельствует о том, что развитие ИИ по пути масштабирования моделей сталкивается с ограничениями. Важнейшим из них является нехватка данных, подходящих для обучения. Исследовательский институт Epoch AI прогнозирует, например, что уже до 2032 года большинство разработчиков LLM-моделей столкнутся с дефицитом данных для обучения ИИ. Эта проблема может решаться двумя путями: повышением доступности подходящих для обучения ИИ данных и созданием новых наборов качественных синтетических. Но пока дефицит данных остается сдерживающим фактором для совершенствования ИИ.

Чтобы ИИ давал более точные и достоверные ответы, ему нужно много обратной связи от человека — а это время и деньги. Один из способов повысить точность — использовать метод RAG, когда нейросеть подключается к внешним источникам данных. Но он сильно зависит от качества этих данных. Если источник — весь интернет, в ответ может попасть всё что угодно, вплоть до лжи. Поэтому RAG часто дополняют другими инструментами: проверкой фактов, логическими системами, калькуляторами. Всё это помогает ИИ делать более осмысленные выводы.

Еще один метод, который сейчас используют разработчики, чтобы сделать более точные ИИ-модели, это CoT (Chain of thoughts, цепочка рассуждений). В данном случае запросы к нейросети разбиваются на несколько подвопросов. После ответов нейросети дается время на то, чтобы обдумать свой ответ и оценить достоверность, вовремя заметив галлюцинации.

Внедряются и новые подходы к построению архитектуры нейросетей, такие как Mixture of Experts: использование вместо одной модели сразу ряда «специализированных» экспертных ИИ-решений. Такой подход (его использует, например, китайский стартап DeepSeek) позволяет добиться от ИИ более релевантных и быстрых ответов.

Несмотря на новый инструментарий для уточнения работы нейросетей, 60% участников опроса AAAI заявляют, что вряд ли в ближайшее время будет достигнута полная надежность ответов ИИ. Одна из проблем в том, что для достижения такого результата необходимо добиваться прозрачности всех источников фактических данных, которые используются при тренировке моделей. Вопросы вызывают и сами способы, которые используются для оценки точности ответов. Обычно она включает использование эталонных тестов, но сами тестовые данные со временем «загрязняются» штампами. Ученые приводят отличную цитату в тему: «Когда мера становится целевой, она перестает быть правильной (хорошей) мерой».

Впрочем, признавая все сложности, ученые отмечают более важную вещь. Постепенно сокращается основной разрыв между ИИ и человеческим мышлением: в способности к абстрактным рассуждениям. Некоторые ИИ-агенты уже умеют самостоятельно выполнять поставленные человеком задачи и даже объяснять ход своих размышлений. Например, Claude 3.7 Sonnet от Anthropic умеет и давать быстрые ответы, и последовательно разъяснять, как она к ним пришла.

Перспективы: как и любое крупное явление, ИИ несет риски

Искусственный интеллект: бег с ускорением по замкнутому кругу? 2

Появление ИИ-агентов, которые умеют рассуждать, вызывает всё больше вопросов — не только технических, но и социальных. Один из главных — что будет с рынком труда? По прогнозам UNCTAD, к 2033 году ИИ затронет до 40% рабочих мест по всему миру. Особенно уязвимы развивающиеся страны: там ИИ может вытеснить дешевую рабочую силу — например, заменить операторов колл-центров. Есть и геополитическая сторона: 40% всех инвестиций в ИИ сосредоточены в руках сотни компаний, в основном из США и Китая. А более сотни стран вообще не участвуют в глобальной дискуссии. Всё это может усилить цифровое неравенство и закрепить технологическую монополию.

Пока же отдельные страны стараются сделать всё для того, чтобы обезопасить себя от неконтролируемого использования искусственного интеллекта. Многие принимают законы, запрещающие внедрение в госструктурах и крупных коммерческих компаниях ИИ без подтверждения того, что его мощность и производительность остаются в рамках установленных ограничений. При этом одной из признанных проблем является вероятность утечек конфиденциальных данных из систем ИИ, которые уже стали объектами для атак киберпреступников. Причем хакеры научились даже вносить в ИИ-модели изменения, заставляющие их искажать ответы.

AGI — не прямое следствие масштабирования ИИ-моделей

Технический прогресс не остановить — AGI всё равно будет развиваться, даже если правительства не готовы к этому. Учёные продолжают решать задачи шаг за шагом. Но это не значит, что нужно торопиться: пока LLM-модели уже хорошо справляются с рутиной — помогают врачам, маркетологам, учёным. ИИ остаётся скорее инструментом, чем заменой человеку. Представлять себе AGI как «следующий шаг» текущих моделей вроде ChatGPT — не совсем верно. Это разные уровни. Многие исследователи сомневаются, что масштабирование существующих подходов вообще приведёт к созданию настоящего AGI. Может, вместо гонки стоит сделать паузу и переосмыслить, каким должен быть ИИ — не только с технической, но и с этической точки зрения.

Искусственный интеллект — это только начало. Чтобы постоянно узнавать о новинках в индустрии, скорее подписывайтесь на Нейроканал.

Следите за новыми постами
Следите за новыми постами по любимым темам
235 открытий5К показов