Команда Google DeepMind провела исследование агрессии во взаимоотношениях между несколькими ИИ

В прошлом году знаменитый физик Стивен Хокинг сказал, что постоянное развитие искусственного интеллекта в конечном счете приведёт к «самому лучшему или самому худшему событию в жизни человечества».

Все мы видели фильм «Терминатор» и описанный в нём постапокалиптический кошмар, в котором осознавший себя ИИ Скайнет пытался уничтожить всё человечество. Недавнее исследование поведения нового ИИ от Google DeepMind показало, насколько осторожными стоит быть при разработке подобных технологий. 

Прошлые версии ИИ от DeepMind продемонстрировали способность учиться независимо от своей собственной памяти. Это помогло машине одержать победу над лучшими в мире игроками в Го.

Теперь же исследователи решили протестировать его способность и желание сотрудничать с другими. Выяснилось, что когда DeepMind приближается к поражению, он выбирает агрессивную стратегию, обеспечивая себе победу.

Чем объясняется агрессивное поведение ИИ?

Команда Google провела 40 миллионов партий в простую игру с собиранием фруктов, в которой два ИИ-агента должны соревноваться друг с другом в сборе виртуальных яблок. В начале игры все шло гладко, но когда количество яблок начало сокращаться, оба ИИ-агента начали использовать агрессивную тактику, используя лазерные лучи, чтобы вывести друг друга из игры и украсть все яблоки.

Вы можете посмотреть запись игры — игроки окрашены в синий и красный цвета, виртуальные яблоки — в зеленый, а лазерные лучи — в жёлтый:

Интересно то, что если один из агентов успешно поразит своего оппонента лазерным лучом, то он не получит дополнительные очки. Это попросту останавливает оппонента на некоторое время, что позволяет другому собрать больше яблок.

Если агенты не станут использовать лазерный луч, то теоретически они могут собрать равное количество яблок. Такое поведение более привычно для «менее разумной» версии DeepMind.

Данные исследования показали, что вероятность мирного сосуществования двух агентов уменьшалась с ростом сложности сети.

Могут ли ИИ работать вместе, а не уничтожать друг друга?

Исследования показали, что могут, лишь в случае обоюдной выгоды.

Во второй игре, Wolfpack, два ИИ-агента играли в качестве волков, а третий был добычей. В этой игре от агентов требовалось скооперироваться с друг другом, чтобы получить больше очков:

Если в первой игре ИИ-агенты выбирали всё более агрессивную стратегию, то во второй агенты начинали всё больше и больше сотрудничать, дожидаясь друг друга возле добычи.

Данный эксперимент показал то, что в будущем, когда наша жизнь частично или полностью будет зависеть от устройств с ИИ, они будут сотрудничать между собой и с нами в том случае, если это будет выгодно для них. Как это похоже на людей, не находите?

Источник: ScienceAlert