Новый Zoom-плагин определяет deepfake в режиме реального времени
Новости
Reality Defender представила новый плагин для Zoom, который в реальном времени обнаруживает deepfake-видео и защищает пользователей от фальшивых видеозвонков
113 открытий3К показов
Кристофер Рен, менеджер по продукту компании Reality Defender, продемонстрировал работу их нового инструмента для обнаружения фейков во время видеозвонков.
Используя код с GitHub и лишь одну фотографию, он создал упрощённую deepfake-имитацию Илона Маска.
Во время звонка изображение отправлялось на анализ в реальном времени, а виджет Reality Defender тут же сообщал, что собеседник — искусственно созданная подделка, а не настоящий человек.
Реальные угрозы deepfake и их последствия
Технология deepfake становится всё большей угрозой для правительств, бизнеса и обычных пользователей.
В 2024 году международная инженерная компания потеряла миллионы долларов, став жертвой поддельного видеозвонка. Эти технологии также активно используются в мошенничестве на романтических сайтах.
Генеральный директор Reality Defender, Бен Коулман, предупреждает, что в ближайшие месяцы число фальшивых видеозвонков может резко возрасти. Поэтому особенно важно проявлять бдительность в ситуациях, где любые ошибки могут дорого стоить.
Новый плагин для Zoom: помощь в борьбе с deepfake
Reality Defender разработали плагин для Zoom, который может анализировать участников видеозвонка и определять, являются ли они настоящими людьми или ИИ-имитацией.
На данный момент, инструмент находится на стадии бета-тестирования и доступен лишь для ограниченного круга клиентов компании. Основная задача — защитить бизнес и государственные структуры от угроз, связанных с deepfake.
Поддержка ИИ: возможности и осторожность
Reality Defender подчёркивает, что не выступает против развития искусственного интеллекта.
По словам Коулмана, в большинстве случаев ИИ приносит огромную пользу: технология помогает в медицине, повышает продуктивность и открывает новые возможности для творчества.
Но, несмотря на все преимущества, редкие случаи злоупотребления deepfake требуют особого внимания.
113 открытий3К показов