Мая Устинова

Основатель FaceApp извинился за расистские наклонности созданного им ИИ

Разработчики FaceApp, приложения, которое использует нейронную сеть для редактирования селфи, извинились за то, что создали расистский алгоритм.

3987

Разработчики FaceApp, приложения, которое использует нейронную сеть для редактирования селфи, извинились за то, что создали расистский алгоритм.

Так, и в чём проблема?

Данное приложение предлагает пользователю загрузить фотографию и изменить внешность изображённого на ней человека. И один из фильтров этой программы, под названием «Привлекательность» оказался расистским. Как заметили пользователи, чтобы создать эффект «привлекательности», фильтр осветлял тон кожи.

Основатель и CEO FaceApp Ярослав Гончаров принес свои извинения и заверил, что этот побочный эффект вызван отклонением обучающей выборки нейронной сети. Чтобы смягчить проблему, разработчики переименовали данный фильтр, сделав название более нейтральным, хотя было бы уместнее убрать его и выпустить снова после исправления. Возможно, в принятии такого решения определенную роль сыграла «вирусная» популярность приложения (каждый день добавляется приблизительно 700 тысяч новых пользователей).

Было бы трудно найти лучший наглядный пример рисков отклонения в алгоритмах. Модель машинного обучения хороша только тогда, когда ей дают хорошие начальные данные. В случае с FaceApp команда разработчиков, которая находится в Москве, просто использовала недостаточно разнообразный набор данных. Но мы хотя бы можем поблагодарить их за столь яркую иллюстрацию скрытой проблемы алгоритмического смещения.

Следите за новыми постами по любимым темам

Подпишитесь на интересующие вас теги, чтобы следить за новыми постами и быть в курсе событий.

Алгоритмы и структуры данных
Нейронные сети
3987
Что думаете?
0 комментариев
Сначала интересные