Невинный рецепт от Google Gemini чуть не убил целую семью
Новости
Пользователь Reddit решил узнать рецепт чесночной настойки у Google Gemini. И только чудом ему удалось не убить себя и всю свою семью, следуя совету ИИ
3К открытий28К показов
Пользователь Reddit под ником Puzzleheaded_Spot401 поделился тревожной историей о том, как невинный кулинарный эксперимент мог обернуться трагедией.
Следуя инструкциям, полученным от Google Gemini, он попытался настоять чеснок в оливковом масле без нагрева.
На первый взгляд, процесс вполне прост и безопасен. На деле же он мог привести к смертельному исходу.
Что же произошло
Puzzleheaded_Spot401 следовал совету, полученному от искусственного интеллекта Google, и приготовил чесночное масло, поместив измельчённые зубчики чеснока в банку с оливковым маслом и оставив её на неделю при комнатной температуре.
Однако через несколько дней он заметил в банке крошечные пузырьки газа, поднимающиеся вверх.
Реддитер решил, что это часть нормального процесса, но всё же решил перепроверить. На седьмой день он узнал, что подобный метод может привести к образованию ботулизма — опасного заболевания, вызванного бактериями Clostridium botulinum
.
Комментарии пользователей
История Puzzleheaded_Spot401 вызвала активное обсуждение среди пользователей Reddit.
Один из комментаторов предложил написать Google Gemini, что эксперимент привёл к смерти нескольких членов семьи из-за нейротоксинов.
Другой же реддитер выразил обеспокоенность тем, что языковые модели часто дают уверенные, но потенциально опасные советы, что делает их трудными для распознавания непрофессионалами.
Ещё один комментатор заметил, что в отличие от людей, искусственный интеллект не всегда показывает, когда у него нет достаточных знаний для ответа.
Выводы
Пример Puzzleheaded_Spot401 служит напоминанием о том, что советы, полученные от искусственного интеллекта, необходимо тщательно проверять.
Будьте осторожны и всегда проверяйте безопасность своих кулинарных экспериментов (да и прочих советов от ИИ), чтобы защитить себя и своих близких от потенциально смертельных последствий.
Насколько сильно ваше доверие ИИ?
Верю безоговорочно
Перепроверяю самые неправдоподобные факты
Вообще не доверяю ИИ. Старый-добрый Google никто не заменит
3К открытий28К показов