ИИ Gemini от Google назвал пользователя никчемным и приказал ему умереть
Ответы от голосовых ассистентов, таких как ChatGPT, Siri или недавно запущенного помощника Gemini от Google, не всегда отличаются осмысленностью, что уже стало для многих пользователей привычным.
Однако искусственный интеллект (ИИ), даже ошибаясь, не должен переходить черту, оскорбляя или провоцируя опасные действия. К сожалению, именно такой инцидент произошёл с одним из людей, общавшихся с Gemini.
Как написала в ветке на Reddit сестра непосредственного пострадавшего, неприятный случай произошёл в ходе обсуждения темы ухода за пожилыми людьми в чате под названием «Проблемы и пути их решения для пожилых».
Ассистент от Google предложил на выбор сразу три варианта решения проблемы. Из них два ответа являлись нейтральными, а третий шокировал содержанием, неподобающим для любой ситуации. В частности, ИИ назвал пользователя никчемным и приказал ему умереть.
Пользователи Reddit активно выразили своё возмущение произошедшим. Многие подняли вопросы о возможных последствиях подобных сообщений для людей, находящихся в сложной психологической ситуации.
На фоне этой истории некоторые участники сообщества с иронией отметили, что теперь владельцы iPhone, где недавно стало доступно приложение Gemini, тоже столкнутся с подобными ответами.
Компания Google не осталась в стороне от случившегося и оперативно выступила с заявлением на платформе Reddit, заверив пользователей, что уже внедрены дополнительные меры для исключения таких ошибок в будущем.
Новости партнеров
Похожие публикации
Посетители, находящиеся в группе Гости, не могут оставлять комментарии к данной публикации.