Перетяжка, Премия ТПрогер, 13.11
Перетяжка, Премия ТПрогер, 13.11
Перетяжка, Премия ТПрогер, 13.11

🔥 Экс-хакер заявил, что LLM не умеют рассуждать и не станут AGI

Новости

По крайней мере, пока не произойдет некий научный или технологический прорыв

327 открытий3К показов
🔥 Экс-хакер заявил, что LLM не умеют рассуждать и не станут AGI

Бывший исследователь кибербезопасности и хакер, ныне независимый технический аналитик, опубликовал масштабный разбор современных языковых моделей (LLM) и пришел к выводу, что они не только далеки от «искусственного разума», но и вряд ли когда-либо станут им.

Его главная мысль: LLM не умеют думать — они лишь угадывают, какие слова должны идти дальше.

Несмотря на обилие впечатляющих демо и заявлений от крупных компаний, экс-хакер уверен: LLM — это не начало новой эры ИИ, а пузырь, раздутый маркетингом и страхом остаться позади.

LLM != мышление

По мнению автора, ключевая ошибка многих в том, что они путают внешнее поведение с внутренним пониманием.

Модели действительно могут решать задачи, писать статьи и даже программировать. Но, как утверждает исследователь, делают они это не за счет логики или абстрактного мышления, а через статистический подбор слов, основанный на гигантских массивах текстов.

Он приводит простой пример: LLM легко решает классическую задачу про козу, волка и капусту — но лишь потому, что она есть в обучающем датасете. Стоит заменить одно из слов, и модель начинает «сбоить». Это, по его мнению, доказывает отсутствие настоящего понимания.

Иллюзия прогресса и подмена понятий

По словам аналитика, индустрия строит «песочные замки», надеясь, что AGI (общий искусственный интеллект) вот-вот появится. Но за громкими словами стоят:

  • краткосрочная жадность инвесторов;
  • хайп, питающий венчурный капитал;
  • и технологическая мода, где у каждого продукта должна быть «ИИ-функция».

Он сравнивает происходящее с NFT, VR, блокчейном и другими волнами переоцененной технологической надежды.

Большинство из них закончились ничем или медленно сошли на нет. LLM, считает он, ждет та же судьба — если не случится принципиально нового научного прорыва.

Последствия: переоценка и деградация

Исследователь также предупреждает об опасных последствиях чрезмерной зависимости от LLM:

  • Когнитивный упадок. Люди перестают развивать навыки, доверяя все подсказкам моделей.
  • Информационный коллапс. Модели «каннибализируют» интернет — копируют контент, ухудшают его качество, что в итоге подрывает источники, на которых сами и обучаются.
  • Псевдопродуктивность. Пользователи чувствуют, будто стали эффективнее, но реальные метрики производительности говорят об обратном.

Что дальше?

По мнению автора, будущее LLM — не в замене людей, а в интеграции в существующие процессы: помощь специалистам, ускорение отдельных задач, улучшение UX.

Он призывает не становиться «инженером промтов», а развивать глубокую экспертизу, чтобы использовать LLM как инструмент, а не как костыль.

Следите за новыми постами
Следите за новыми постами по любимым темам
327 открытий3К показов