Темная сторона нейросетей: как мошенники используют ИИ и как от этого защититься
Какие существуют виды кибермошенничества с использованием нейросетей и как защититься от обмана.
1К открытий7К показов
Елена Кравченко, автор международной бизнес-школы с фокусом на нейромаркетинг и нейросети EKAi
По официальной статистике Министерства внутренних дел РФ, каждое третье преступление в России в 2023 году совершено с использованием информационно-телекоммуникационных технологий. Число ИТ-преступлений в РФ за 2023 год выросло на 29,7% в сравнении с 2022-м. Искусственный интеллект используется не только для помощи в легальном бизнесе, но и в незаконных схемах. В этом материале — обзор того, какие опасности представляют новые технологии в руках мошенников.
Зарубежный чат Only Fake создает поддельные документы. Схема простая: ИИ-сервис, работающий с изображениями, генерирует снимки паспортов и водительских прав, причем разных стран. По данным различных СМИ, образцы документов проходят проверку безопасности в интернет-пространстве. К примеру, на криптобиржах. Причем стоимость подделки и скорость изготовления катастрофически сократились. Всего несколько секунд и $15 — и документ готов.
Как защититься?
Программы для распознавания подделок очень востребованы, в первую очередь коммерческими структурами. Их создание — это одна из главных задач программистов. Пока первыми клиентами таких проектов будут банки и другие финансовые структуры — те, кто готов платить огромные деньги за сохранность своих средств. К слову, первые результаты уже есть, в том числе и в России. Так, в прошлом году свой продукт представили российские разработчики Smart Engines. Компания сообщила, что в число их клиентов вошло сразу 13 банков.
Тексты для общения с жертвами
По данным российского Следственного комитета, это, кстати, одна из самых распространенных технических составляющих киберпреступлений. Взломав соцсети, можно получить доступ к семантическому полю жертвы. Для нейросетей при загрузке нужных исходных данных составить текст от имени человека или необходимой организации (например, банка) — пара секунд. Также как и скрипты общения с новой потенциальной жертвой.
Практика показывает, что обман часто не могут выкупить даже весьма подкованные люди или близкие родственника, чьим именем представляются мошенники. Осенью 2023 года в российских СМИ прошла информация о волне случаев фишинга с ложной платной аккредитацией. Мошенники рассылали участникам торгов идеально составленные письма с предложением поучаствовать в рамочных торговых закупках и гиперссылкой на домены на торговых площадках.
Как защититься?
Как правило, реальные организации в своих рассылках теперь не публикуют какие-либо ссылки для перехода по ним. Лучше проверьте достоверность информации, обратившись в организацию оффлайн или по проверенному номеру телефона.
Поддельные голоса
Генерация голоса — одна из революционных возможностей использования нейросетей. Но, к сожалению, она активно используется мошенниками для преступных схем. Резонансная история произошла в США: там фейковый голос кандидата в президенты Джо Байдена призвал демократов не участвовать в голосовании. Звонки получили более 20 тысяч избирателей.
В России сгенерированные ИИ голоса неоднократно применяли мошенники для выманивания денег. Кроме того, от незаконного использования голосов страдают и профессиональные дикторы и актеры, столкнувшиеся с проблемой потери прав на собственный голос. Так, в прошлом году Савеловский суд Москвы рассматривал иск актрисы дубляжа Адены Андроновой к «Тинькофф банку». Речь актрисы была синтезирована и продана для свободного использования всем желающим, включая онлайн-казино.
Как защититься?
К сожалению, в России законодательство пока не проработано, и иск актрисы Андроновой остался без движения. Правовая охрана есть пока лишь у изображения человека. Но уверена, регуляция закона не за горами. Осенью этого года Совет по развитию цифровой экономики при Совете Федерации начал готовить законопроект, который закрепит понятие «синтез голоса при помощи искусственного интеллекта», а также регулирует вопрос охраны голоса наравне с изображением.
А вот в США такие ограничения на днях уже были введены. Федеральная комиссия по связи США ввела запрет на использование синтезированных голосов в робозвонках.
«Раздевающие» сервисы
Мошенники с помощью программ ИИ создают фейковые фото голых людей. Такие схемы могут быть использованы для создания фейкового компромата и вполне реального шантажа. По оценке Bloomberg, только в сентябре 24 миллиона человек посетили сайты, где можно создать «голые» фото. Конечно, значительная часть пользователей использует такие ресурсы для собственного развлечения, но, к сожалению, есть и те, кто старается на подобном продукте заработать.
Как защититься?
Если говорить о законодательстве именно в аспекте искусственного интеллекта, то оно еще не сформировано. Однако соцсети сейчас активно ведут собственную работу с распространением подобного контента: блокируют изображения обнаженных женщин и мужчин.
Если первоисточник «компромата» известен, пострадавшие могут обратиться в суд к распространяющим контент каналам — СМИ, авторам блогов и т.д.
Главное — бдительность и здравый смысл.
Следите за тем, где вы оставляете свои контакты, особенно в виртуальном пространстве.
Проверяйте платежные системы. Они должны быть известными. Если сервис вызывает у вас сомнения — лучше отказаться.
Никогда не закачивайте свои документы в сервисы искусственного интеллекта. Конечно, в интернете есть огромное количество документов, и в мессенджерах мы их пересылаем, но в ИИ выкладывать не нужно. Не поощряйте сами эту историю. Тем более, что самые известные международные сервисы (например ChatGPT) напрямую недоступны в России, и пользоваться можно лишь посредническими вариантами. Уверены ли вы в честности их создателей?
Скачивайте приложения на телефон только из проверенных источников. Используйте официальные версии.
Перепроверьте информацию, если сообщения или даже звонки от близких людей вас чем-то насторожили. Если есть возможность связаться через другой канал, потратьте время, но задайте вопрос.
Думаю, что методы защиты от кибермошенничества в целом появятся уже в ближайшие годы. Вслед за ними будет набирать обороты и киберстрахование.
1К открытий7К показов