Игра Яндекс Практикума
Игра Яндекс Практикума
Игра Яндекс Практикума

Исследователи разработали чат-бота, который убежден в своей правоте

Новости

Visual Chatbot, который обучен на изображениях людей и животных, впадает в ступор при виде необычных картинок. Если он ошибается, не хочет этого признавать.

887 открытий891 показов

Чат-бот, названный Visual Chatbot, отвечает на вопросы, касающиеся содержимого любого увиденного роботом изображения. Технический документ исследования опубликован на arXiv.org. Проект демонстрирует применение технологий компьютерного зрения, распознавания изображений, обработки естественного языка и пространственного осознания машин.

Чем примечателен Visual Chatbot?

Алгоритм имеет несколько особенностей:

  1. Он обучался на большом, но достаточно ограниченном наборе данных.
  2. Он не подготовлен к изображениям, которые отличаются от исходных материалов.
  3. Когда он ошибается, то не хочет этого признавать.

С каждым изображением алгоритм учится различать больше предметов и живых организмов. Например, он уже с высокой точностью распознает людей и животных в естественных средах. Но когда дело касается необычных изображений, чат-бот дает сбои и начинает придумывать собственные объяснения увиденному:

Исследователи разработали чат-бота, который убежден в своей правоте 1

Visual Chatbot основывается исключительно на контрольном наборе картинок, на которых он обучался распознаванию. На каждой из них находилось млекопитающее, птица или человек. Поэтому при просмотре изображений, содержащих только объекты неживой природы, он все так же видит на нем животных:

Исследователи разработали чат-бота, который убежден в своей правоте 2

Если начать задавать вопросы, способные привести к причине его ошибки, то можно прийти к неожиданному результату:

Исследователи разработали чат-бота, который убежден в своей правоте 3

В чем причина такой уверенности?

Автор сайта AI Weirdness пришел к выводу, что ИИ Visual Chatbot не всегда отвечает на вопрос пользователя, исходя из того, что он видит на изображении. Он скорее пытается дать объяснения тому, что является ложью. Например, если чат-бот не может определить, какого цвета объект на экране, он говорит, что фото черно-белое, поэтому он не может сказать точно:

Исследователи разработали чат-бота, который убежден в своей правоте 4

Демо-версия чат-бота, в которой можно потренировать его в описании изображений, доступна всем желающим.

Пока что роботы не научились лгать людям, зато они уже умеют объяснять причины своих действий. Этого добилась объединенная группа ученых и исследователей из команды Facebook AI Research.

Следите за новыми постами
Следите за новыми постами по любимым темам
887 открытий891 показов