Deloitte признала использование ИИ в правительственном отчёте с фейковыми цитатами и вернёт часть гонорара
Новости
Deloitte вернёт часть оплаты за отчёт с фейковыми ссылками, созданными ИИ GPT-4o
164 открытий2К показов
Консалтинговая компания Deloitte Australia признала, что в её официальном отчёте для правительства Австралии были использованы сфабрикованные ссылки и цитаты, созданные искусственным интеллектом.
Документ стоимостью 440 тысяч долларов США, посвящённый проверке системы социального контроля (Targeted Compliance Framework Assurance Review), содержал несуществующие источники и ложные судебные цитаты.
После внутреннего расследования Deloitte согласилась частично вернуть оплату — сумму, эквивалентную последнему траншу контракта.
Как это обнаружили
Ошибки обнаружил Крис Радж (Chris Rudge), заместитель директора Центра права здравоохранения Сиднейского университета. Он заметил, что в отчёте упоминаются научные статьи и правовые обзоры, которых не существует.
Среди них — публикации, якобы принадлежащие профессору права Лизе Бёртон Кроуфорд (Lisa Burton Crawford). Учёная заявила, что никогда не писала таких работ, и выразила обеспокоенность тем, что её имя было использовано без согласия.
«Меня тревожит, что моё имя упомянуто в контексте вымышленных исследований. Я жду объяснений от Deloitte, как могли появиться такие ссылки», — сказала Кроуфорд Australian Financial Review.
GPT-4o на службе аудита — без раскрытия источника
При повторной публикации отчёта Министерство занятости и трудовых отношений (DEWR) добавило уточнение:
На странице 58 указано, что техническая команда Deloitte использовала генеративную модель Azure OpenAI GPT-4o в ходе анализа.
ИИ применялся для проверки соответствия программного кода автоматизированной системы социальной помощи нормам и требованиям законодательства. Однако в процессе генерации были созданы фиктивные ссылки, которые не прошли ручную валидацию.
В обновлённой версии отчёта:
- удалено 14 ложных ссылок (из 141 осталось 127);
- убрана поддельная цитата, приписанная федеральному судье Дженнифер Дэвис (Jennifer Davies), чьё имя в оригинале было написано с ошибкой;
- внесена сноска о применении генеративных инструментов на базе GPT-4o.
Deloitte: «Рекомендации остаются действительными»
Компания подчеркнула, что основные выводы и рекомендации отчёта остаются корректными, несмотря на наличие «ошибок в ссылках».
«Суть независимого обзора сохранена, изменений в рекомендациях нет», — сообщили в DEWR.
Тем не менее, исследователь Радж поставил под сомнение достоверность результатов:
«Как можно доверять рекомендациям, если сам отчёт построен на методологии, основанной на недостоверных данных и без надзора экспертов?»
Что это значит для индустрии консалтинга и ИИ
Инцидент с Deloitte стал одним из первых официальных случаев, когда генеративный ИИ был признан источником ложных данных в правительственном отчёте.
Он поднимает ключевые вопросы:
- кто несёт ответственность за ошибки, созданные ИИ;
- обязаны ли подрядчики раскрывать факт использования генеративных моделей;
- как верифицировать данные, если отчёты включают ИИ-генерацию без проверки.
Эксперты отмечают, что случай Deloitte отражает глобальную проблему «галлюцинаций» LLM-моделей — создание правдоподобных, но несуществующих ссылок и цитат.
Подобные инциденты уже фиксировались в судебных делах в США и академических публикациях, однако впервые произошли в рамках государственного контракта с крупной консалтинговой компанией.
164 открытий2К показов



