Написать пост

Невинный рецепт от Google Gemini чуть не убил целую семью

Новости

Пользователь Reddit решил узнать рецепт чесночной настойки у Google Gemini. И только чудом ему удалось не убить себя и всю свою семью, следуя совету ИИ

Невинный рецепт от Google Gemini чуть не убил целую семью

Пользователь Reddit под ником Puzzleheaded_Spot401 поделился тревожной историей о том, как невинный кулинарный эксперимент мог обернуться трагедией.

Следуя инструкциям, полученным от Google Gemini, он попытался настоять чеснок в оливковом масле без нагрева.

На первый взгляд, процесс вполне прост и безопасен. На деле же он мог привести к смертельному исходу.

Что же произошло

Puzzleheaded_Spot401 следовал совету, полученному от искусственного интеллекта Google, и приготовил чесночное масло, поместив измельчённые зубчики чеснока в банку с оливковым маслом и оставив её на неделю при комнатной температуре.

Однако через несколько дней он заметил в банке крошечные пузырьки газа, поднимающиеся вверх.

Реддитер решил, что это часть нормального процесса, но всё же решил перепроверить. На седьмой день он узнал, что подобный метод может привести к образованию ботулизма — опасного заболевания, вызванного бактериями Clostridium botulinum.

Невинный рецепт от Google Gemini чуть не убил целую семью 1

Комментарии пользователей

История Puzzleheaded_Spot401 вызвала активное обсуждение среди пользователей Reddit.

Один из комментаторов предложил написать Google Gemini, что эксперимент привёл к смерти нескольких членов семьи из-за нейротоксинов.

Другой же реддитер выразил обеспокоенность тем, что языковые модели часто дают уверенные, но потенциально опасные советы, что делает их трудными для распознавания непрофессионалами.

Ещё один комментатор заметил, что в отличие от людей, искусственный интеллект не всегда показывает, когда у него нет достаточных знаний для ответа.

Выводы

Пример Puzzleheaded_Spot401 служит напоминанием о том, что советы, полученные от искусственного интеллекта, необходимо тщательно проверять.

Будьте осторожны и всегда проверяйте безопасность своих кулинарных экспериментов (да и прочих советов от ИИ), чтобы защитить себя и своих близких от потенциально смертельных последствий.

Насколько сильно ваше доверие ИИ?
Верю безоговорочно
Перепроверяю самые неправдоподобные факты
Вообще не доверяю ИИ. Старый-добрый Google никто не заменит
Следите за новыми постами
Следите за новыми постами по любимым темам
3К открытий22К показов