Как новая нейросеть OpenAI повлияет на распространение фейков
Прокомментировала появление новой нейросети от OpenAI и оценила потенциальное увеличение фейковых новостей в связи с этим событием.
168 открытий5К показов
Руководитель видеоагентства RUPTLY Индира Жарова прокомментировала появление новой нейросети от OpenAI и оценила потенциальное увеличение фейковых новостей в связи с этим событием.
«На рынке сейчас есть несколько моделей генеративного ИИ, которые способны создавать тексты и изображения по команде автора. В Интернете создаются целые серии сайтов, занимающихся распространением непроверенной или заведомо ложной информации. При наличии генеративного искусственного интеллекта наполнять и поддерживать подобные ресурсы становится невообразимо просто. Всего за несколько минут можно написать десятки статей на единую тему с упоминанием нужных автору фактов. Затем подобные материалы буквально заполняют Интернет, из-за чего фейк воспринимается как правдивая информация, и никого не волнует, что сведения распространяют только небольшие СМИ.
Поток недостоверных новостей можно сопровождать почти неотличимыми от реальных (без дополнительных инструментов) визуальными материалами: видео и фото. Современные алгоритмы умеют создавать их из любого текстового запроса. И эти алгоритмы совершенствуются с каждым днём, как мы можем заметить на примере новой нейросети от OpenAI. Скорость, с которой создаются фейки, гораздо выше скорости, с которой работают журналисты.
Поэтому сегодня как никогда важен не только сам материал, который подается зрителю «на блюдечке» во всех возможных каналах, но и источник появления данного материала. Искусственный интеллект ведь можно использовать для проверки данных. В видеоагентстве RUPTLY мы применяем ИИ для разработки эффективных и быстрых инструментов верификации контента. СМИ точно таким же образом должны инвестировать усилия в построение собственной репутации, которая уязвима как никогда из-за массового увеличения фейков», – отметила Индира Жарова.
168 открытий5К показов