🔥 OpenAI научилась распознавать тексты ChatGPT, но боится гнева пользователей
Новости
Как оказалось, компания не всегда делится с общественностью своими разработками
229 открытий4К показов
OpenAI разработала технологию выявления текстов, написанных с помощью ChatGPT.
Но пока что компания не торопится ее выпускать, несмотря на обеспокоенность общественности в связи с использованием ИИ для различного рода обмана.
По данным The Wall Street Journal, проект уже около года готов к запуску, но решение о выпуске постоянно откладывается.
Конфликт интересов и водяные знаки
Сотрудники OpenAI разрываются между стремлением к прозрачности и желанием привлечь и удержать пользователей.
Опрос, проведенный среди лояльных пользователей ChatGPT, показал, что почти 30% из них будет недовольна внедрением подобной технологии. Представитель компании отметил, что инструмент может негативно повлиять на неносителей английского языка.
Сейчас ChatGPT работает таким образом, что прогнозирует, какое слово или фрагмент слова должно следовать дальше в предложении. Обсуждаемый «античит» немного изменяет процесс выбора этих токенов, оставляя едва заметный для человеческого глаза водяной знак.
Водяные знаки, по внутренним документам, показывают эффективность на 99.9%.
Проблемы и вызовы
Некоторые сотрудники высказывают опасения, что водяные знаки можно стереть очень простым способом: например, с помощью перевода текста через Google Translate или добавления и удаления эмодзи.
При этом в начале 2023 года OpenAI уже выпускала алгоритм для выявления сгенерированного текста, но его точность составила всего 26%, и через 7 месяцев компания отказалась от инструмента.
Внутренние обсуждения водяного знака начались до запуска ChatGPT в ноябре 2022 года и стали постоянным источником напряженности.
229 открытий4К показов