Екатерина Никитина

Google AI разработала What-If Tool, инструмент для проверки объективности ИИ-моделей

Инструмент визуализирует влияние определенных данных на предсказание модели, при этом доступен для тех, кто не разбирается в программировании.

1314
Обложка поста Google AI разработала What-If Tool, инструмент для проверки объективности ИИ-моделей

Команда PAIR (People + AI Reserach, часть Google AI) представила What-If Tool — новый инструмент для обнаружения предвзятости в моделях искусственного интеллекта. Он поставляется как часть веб-приложения TensorBoard. What-If Tool визуализирует влияние определенных данных на предсказание модели, при этом доступен для тех, кто не разбирается в программировании.

Что предлагает What-If Tool?

  • Автоматически визуализировать набор данных с использованием Facets.
  • Редактировать отдельные примеры из набора и отслеживать, как это отражается на результатах.
  • Автоматически создавать графики частичных зависимостей, отражающие перемены в предсказании модели при изменении какого-либо одного свойства.
  • Сравнивать наиболее похожие примеры из датасета, для которых модель дала разные предсказания.

Полный список возможностей разработчики указали на странице проекта.

Проверить работу инструмента можно на заранее обученных алгоритмах:

Ученые и исследователи в области искусственного интеллекта обращают пристальное внимание на качество и разнообразие данных, используемых для тренировки алгоритмов. Иногда предубеждение попадает в результаты незаметно. Так нейросети, распознающие текст и речь, «подхватили» из датасетов стереотипы о гендерных ролях людей, после чего разработчикам пришлось искать специальное решение.

Последний пример влияния данных на результат продемонстрировали специалисты из MIT — это распознающая нейросеть Norman, которую обучали на картинках с тематикой смерти. В итоге она в пятнах из теста Роршаха видела сцены суицида и убийств.

1314