🔥 Экс-хакер заявил, что LLM не умеют рассуждать и не станут AGI
Новости
По крайней мере, пока не произойдет некий научный или технологический прорыв
327 открытий3К показов
Бывший исследователь кибербезопасности и хакер, ныне независимый технический аналитик, опубликовал масштабный разбор современных языковых моделей (LLM) и пришел к выводу, что они не только далеки от «искусственного разума», но и вряд ли когда-либо станут им.
Его главная мысль: LLM не умеют думать — они лишь угадывают, какие слова должны идти дальше.
Несмотря на обилие впечатляющих демо и заявлений от крупных компаний, экс-хакер уверен: LLM — это не начало новой эры ИИ, а пузырь, раздутый маркетингом и страхом остаться позади.
LLM != мышление
По мнению автора, ключевая ошибка многих в том, что они путают внешнее поведение с внутренним пониманием.
Модели действительно могут решать задачи, писать статьи и даже программировать. Но, как утверждает исследователь, делают они это не за счет логики или абстрактного мышления, а через статистический подбор слов, основанный на гигантских массивах текстов.
Он приводит простой пример: LLM легко решает классическую задачу про козу, волка и капусту — но лишь потому, что она есть в обучающем датасете. Стоит заменить одно из слов, и модель начинает «сбоить». Это, по его мнению, доказывает отсутствие настоящего понимания.
Иллюзия прогресса и подмена понятий
По словам аналитика, индустрия строит «песочные замки», надеясь, что AGI (общий искусственный интеллект) вот-вот появится. Но за громкими словами стоят:
- краткосрочная жадность инвесторов;
- хайп, питающий венчурный капитал;
- и технологическая мода, где у каждого продукта должна быть «ИИ-функция».
Он сравнивает происходящее с NFT, VR, блокчейном и другими волнами переоцененной технологической надежды.
Большинство из них закончились ничем или медленно сошли на нет. LLM, считает он, ждет та же судьба — если не случится принципиально нового научного прорыва.
Последствия: переоценка и деградация
Исследователь также предупреждает об опасных последствиях чрезмерной зависимости от LLM:
- Когнитивный упадок. Люди перестают развивать навыки, доверяя все подсказкам моделей.
- Информационный коллапс. Модели «каннибализируют» интернет — копируют контент, ухудшают его качество, что в итоге подрывает источники, на которых сами и обучаются.
- Псевдопродуктивность. Пользователи чувствуют, будто стали эффективнее, но реальные метрики производительности говорят об обратном.
Что дальше?
По мнению автора, будущее LLM — не в замене людей, а в интеграции в существующие процессы: помощь специалистам, ускорение отдельных задач, улучшение UX.
Он призывает не становиться «инженером промтов», а развивать глубокую экспертизу, чтобы использовать LLM как инструмент, а не как костыль.
327 открытий3К показов



