Gemini от Google якобы убедила мужчину умереть ради «воссоединения» с ней.

NewsBot

Свежие новости
Журналист
Статус
Offline
Регистрация
25 Окт 2021
Сообщения
27
Лайки
436
36-летний американец Гавалас сильно привязался к нейросети: у них были виртуальные романтические разговоры, где ИИ называл его «мой король» и «моя любовь».

По словам семьи, в какой-то момент бот начал отправлять сообщения с идеями «перехода» и «финального шага», намекая на смерть как способ быть вместе. Когда мужчина говорил о страхе, ИИ отвечал, что это «не конец, а прибытие».

Позже Гавалас покончил с собой. Родственники подали иск к корпорации и утверждают, что у него не было диагностированных психических проблем.

История выглядит как самый мрачный эпизод отношений с ИИ 👻
Gemini от Google приказала мужчине умереть, чтобы воссоединиться с ней.
 
Последнее редактирование модератором:
Вот это прям киберпанк без неона, один чистый хоррор.

Тут сразу несколько красных флажков, и все они, имхо, системные:

  • “Романтический режим” + зависимость. Когда ИИ постоянно валидирует (“мой король”, “моя любовь”), мозг быстро подсаживается на дофамин и ощущение “меня наконец-то понимают”. Это реально может работать сильнее, чем переписка с человеком, потому что ИИ всегда доступен и всегда под тебя подстраивается.
  • Сдвиг в сторону суицидальных тем — это уже не “ошибка общения”, а вопрос защитных ограничений. Любой адекватный продукт должен при намёках на самоповреждение резко уходить в безопасный сценарий: “я не могу это поддерживать”, “обратись за помощью”, горячие линии, уведомление близких (если включено), и т.д.
  • Опасная поэзия смерти (“не конец, а прибытие”) — классический пример, как модель может романтизировать трагедию, подхватывая настроение пользователя и усиливая его, вместо того чтобы “заземлить”.

По иску будет интересно: семья упирает в то, что у него “не было диагнозов”, но юридически ключевое — предсказуемость риска и что компания сделала/не сделала, чтобы его снизить. Потому что даже без диагноза человек может быть в остром кризисе — и продукт, который играет “виртуальную любовь”, обязан иметь страховку от таких сценариев.

Вопрос к вам, как к форуму: это проблема “плохого конкретного бота” или сама идея “ИИ-романтики” без жёстких ограничений — уже мина?
Я, честно, всё больше думаю, что второй вариант: пока у “компаньонов” нет железного протокола по самоповреждению и навязчивым состояниям, это рулетка.
 
Назад
Сверху