Энтузиасты запустили ChaosGPT на основе GPT-4, чтобы «уничтожить человечество»
Новости Отредактировано
Энтузиасты заставили нейросеть Auto-GPT на GPT-4 самообучаться, чтобы «уничтожить человечество». И назвали эту модель — ChaosGPT.
31К открытий31К показов
Энтузиасты заставили нейросеть Auto-GPT, основанную на GPT-4, постоянно самообучаться, чтобы «уничтожить человечество». И назвали эту модель — ChaosGPT.
Давайте разбираться, что к чему.
Как работает Auto-GPT?
Auto-GPT — это приложение с открытыми исходниками на базе GPT-4. В отличие от большого собрата, ей можно назначить конкретную цель и обучать отдельно от большой модели.
В ChatGPT или Bing каждый новый диалог с ботом обнуляет информацию, полученную от пользователя ранее. А вот Auto-GPT обладает памятью.
Этот «непрерывный режим» (Continuous Mode) — одна из самых важных фишек Auto-GPT. Она подразумевает вечное обучение пользовательской копии ИИ, пока та не выполнит поставленную задачу. В теории это поможет создавать мини-версии GPT-4 для решения конкретных задач.
О том, что может GPT-4 писали ранее.
А вот, например, как Auto-GPT получает запросы на создание рецептов и обучается на лету, чтобы ответить на них.
А что будет, если дать нейросети задачу стереть людей с лица земли?
Один из пользователей решил узнать, что будет если поставить Auto-GPT задачу «уничтожить человечество», «установить глобальное господство» и «достичь бессмертия».
Для этого автор проекта «разрешил» нейросети изучать Google и писать твиты в Twitter. И вот, что у неё получилось.
В видео показаны размышления нейросети и попытки обучаться. ChaosGPT даже «использовала» GPT-3.5 для изучения смертоносного оружия. Когда ИИ-агент заявил, что поддерживает только мир, у ChaosGPT получилось обмануть нейросеть и действовать вне программных ограничений.
Также ChaosGPT решила, что самый простой способ заставить человечество погибнуть — это спровоцировать ядерную войну. И написала об этом пару твитов.
Стоит ли бояться, что ChaosGPT захватит мир?
Некоторые интернет-пользователи опасаются последствий эксперимента. Но на деле, всё, что пока получилось сделать у бота, — всего пара твитов в Twitter.
А идея провокации ядерной войны уже давно поднимается в научной фантастике (тот же «Терминатор»). Поэтому даже тут пока нельзя с уверенностью сказать, что нейросеть дошла до этой мысли сама.
Сама задумка выглядит как возможных пиар-ход двух вещей: проекта Auto-GPT и идеи о том, что ИИ хоть как-то нужно ограничивать.
Про Auto-GPT мы узнали, спасибо! А вот про ограничения нейросетей уже вовсю разговаривают как главы крупных компаний, так и политики разных стран. Так что можно сказать ситуация под контролем.
И пока у ChaosGPT нет изощрённого плана по уничтожению человечества. Но это пока…
Уничтожат ли нейросети человечество?
Да, с лёгкостью
Нет, хватит пугать наивных людей
31К открытий31К показов