Виммельбух, 3, перетяжка
Виммельбух, 3, перетяжка
Виммельбух, 3, перетяжка

Новый проект от OpenAI научил ИИ вести дебаты между собой

Новости Отредактировано

Игра, созданная компанией Илона Маска OpenAI, которая занимается разработками в области искусственного интеллекта, призвана обучить нейронные сети спорить между собой для достижения поставленной цели. Для экспериментов с новой технологией создано веб-приложение дебатов для всех желающих.

3К открытий3К показов

Компания OpenAI, которой владеет Илон Маск, запустила игру в дебаты, которая обучает нейросети говорить правду или врать для достижения желаемого результата. Для реализации проекта была использована новая техника глубокого обучения: агенты ИИ ведут между собой дебаты, а человек судит их. Эта технология создана для осуществления наблюдения за действиями нейросетей и существует как proof-of-concept возможного решения.

Как проходят дебаты?

По словам представителей компании, техника дебатов во многом похожа на технику самообучения ИИ для игры в го. Алгоритм правильного ответа представлен в виде дерева, в котором только один из путей ведет к верному решению. В отличие от го, где неопытный игрок не всегда может определить качество совершенного профессионалом хода, в дебатах каждое утверждение должно быть понятно судье. В случае, если вывод, к которому пришли агенты ИИ, слишком сложный для понимания человеком, ему предлагаются упрощенные и развернутые варианты ответа.

Новый проект от OpenAI научил ИИ вести дебаты между собой 1

Можно ли попробовать самому?

Также компания открыла аналогичный проект для людей, желающих поэкспериментировать с новой технологией ИИ. Для игры необходимо выбрать тему дебатов, загрузить изображение на сервер и «подбросить монетку» для выбора сторон. Далее машины или люди должны отыграть роли говорящих правду или ложь, открывая изображение по квадратам и убеждая судью некоторыми утверждениями. Судья, который не видит полной картины, решает, кому присудить победу в дебатах.

Для чего все это?

Представители OpenAI говорят, что в будущем они хотят создать такую безопасную систему искусственного интеллекта, чтобы человек всегда мог понимать и контролировать решения машин. Этот подход применим к любым ИИ, так как он упрощает комплексность алгоритмов и выводов, к которым приходят нейросети во время решения поставленной задачи.

Контроль и наблюдение за работой нейронных сетей важен для понимания принципов их работы. Напомним, в 2016 году команда исследователей из Google создала нейросеть, которая придумала собственный алгоритм шифрования и не смогла его взломать.

Следите за новыми постами
Следите за новыми постами по любимым темам
3К открытий3К показов