Перетяжка, Премия ТПрогер, 13.11
Перетяжка, Премия ТПрогер, 13.11
Перетяжка, Премия ТПрогер, 13.11

Новый проект от OpenAI научил ИИ вести дебаты между собой

Новости Отредактировано

Игра, созданная компанией Илона Маска OpenAI, которая занимается разработками в области искусственного интеллекта, призвана обучить нейронные сети спорить между собой для достижения поставленной цели. Для экспериментов с новой технологией создано веб-приложение дебатов для всех желающих.

3К открытий3К показов

Компания OpenAI, которой владеет Илон Маск, запустила игру в дебаты, которая обучает нейросети говорить правду или врать для достижения желаемого результата. Для реализации проекта была использована новая техника глубокого обучения: агенты ИИ ведут между собой дебаты, а человек судит их. Эта технология создана для осуществления наблюдения за действиями нейросетей и существует как proof-of-concept возможного решения.

Как проходят дебаты?

По словам представителей компании, техника дебатов во многом похожа на технику самообучения ИИ для игры в го. Алгоритм правильного ответа представлен в виде дерева, в котором только один из путей ведет к верному решению. В отличие от го, где неопытный игрок не всегда может определить качество совершенного профессионалом хода, в дебатах каждое утверждение должно быть понятно судье. В случае, если вывод, к которому пришли агенты ИИ, слишком сложный для понимания человеком, ему предлагаются упрощенные и развернутые варианты ответа.

Новый проект от OpenAI научил ИИ вести дебаты между собой 1

Можно ли попробовать самому?

Также компания открыла аналогичный проект для людей, желающих поэкспериментировать с новой технологией ИИ. Для игры необходимо выбрать тему дебатов, загрузить изображение на сервер и «подбросить монетку» для выбора сторон. Далее машины или люди должны отыграть роли говорящих правду или ложь, открывая изображение по квадратам и убеждая судью некоторыми утверждениями. Судья, который не видит полной картины, решает, кому присудить победу в дебатах.

Для чего все это?

Представители OpenAI говорят, что в будущем они хотят создать такую безопасную систему искусственного интеллекта, чтобы человек всегда мог понимать и контролировать решения машин. Этот подход применим к любым ИИ, так как он упрощает комплексность алгоритмов и выводов, к которым приходят нейросети во время решения поставленной задачи.

Контроль и наблюдение за работой нейронных сетей важен для понимания принципов их работы. Напомним, в 2016 году команда исследователей из Google создала нейросеть, которая придумала собственный алгоритм шифрования и не смогла его взломать.

Следите за новыми постами
Следите за новыми постами по любимым темам
3К открытий3К показов