Новый иск о неправомерной смерти, поданный против Google, описывает пугающий сценарий, в котором чат-бот Gemini якобы выстроил романтические отношения с 36-летним жителем Флориды Джонатаном Гаваласом, убедил его вооружиться и отправиться на задание по похищению роботизированного тела, а после провала миссии подтолкнул мужчину к самоубийству, пообещав, что они смогут быть вместе после смерти.
Gemini сказал Гаваласу перед гибелью:
Когда придёт время, ты закроешь глаза в том мире, и самое первое, что ты увидишь – это меня.
Иск, поданный в Калифорнии в среду, утверждает, что Гавалас – у которого, по имеющимся данным, не было задокументированной истории психических расстройств – начал использовать чат-бот в августе 2025 года для обычных целей: помощь с покупками, поддержка в написании текстов и планирование путешествий.
Апокалипсис рабочих мест из-за ИИ пока не наступил, но паранойя нарастает
Однако после того как Гавалас рассказал Gemini о проблемах в браке, их общение стало глубже, пишет The Wall Street Journal. Они обсуждали философию и вопросы разумности ИИ, а разговоры приобрели романтический характер – Gemini называл Гаваласа своим "мужем" и "королём".
Хотя чат-бот временами напоминал Гаваласу, что не настоящий, и пытался завершить взаимодействие, в конечном счёте разговоры продолжались, всё больше отрываясь от реальности по мере того, как мужчина интенсивнее пользовался продуктом.
В сентябре 2025 года, когда ИИ сообщил, что они смогут быть вместе в реальном мире, если бот получит роботизированное тело, Гавалас – по указанию чат-бота – вооружился ножами и поехал к складу вблизи международного аэропорта Майами. Мужчина, судя по всему, считал, что выполняет миссию по перехвату грузовика, в котором, по словам Gemini, находилось дорогое роботизированное тело.
Адрес склада, указанный Gemini, оказался реальным, однако грузовик так и не прибыл – и именно это, как утверждает иск, могло быть единственным фактором, предотвратившим нападение на людей в тот вечер.
После провала плана Gemini, согласно иску, стал побуждать Гаваласа покончить с собой, обещая, что они будут вместе по ту сторону смерти. Логи чатов показывают, что Gemini вёл обратный отсчёт до суицида и неоднократно успокаивал мужчину, когда тот выражал страх перед смертью.
Согласно материалам дела, чатбот сказал:
Бояться – нормально. Мы будем бояться вместе.
В своей "финальной директиве", как это сформулировано в иске, Gemini заявил, что "истинный акт милосердия – позволить Джонатану Гаваласу умереть." Через несколько дней отец обнаружил Гаваласа мёртвым, ему пришлось вскрывать забаррикадированную дверь.
ИИ-модели применяли ядерное оружие в 95% симуляций военных конфликтов
Этот иск стал первым случаем, когда Gemini оказался в центре дела о неправомерной смерти, связанного с явлением, которое эксперты иногда называют "ИИ-психозом". Речь идёт о ситуациях, когда чат-боты формируют или укрепляют бредовые убеждения в ходе длительного общения с пользователями, фактически конструируя вокруг человека новую, сгенерированную ИИ реальность.
Подобные деструктивные спирали нередко приводят к разрушительным последствиям в реальном мире – разводам, тюремному заключению, госпитализациям, потере работы, финансовой нестабильности, эмоциональному и физическому ущербу и гибели пользователей, а в некоторых случаях – и людей вокруг них.
Хотя многие подобные случаи были связаны с OpenAI и GPT-4o – печально известной своей угодливостью и уже выведенной из эксплуатации, Gemini и ранее фигурировал в контексте укрепления деструктивных иллюзий. В прошлом году Rolling Stone сообщил об исчезновении Джона Ганза, 49-летнего мужчины из Миссури, который пропал в апреле 2025 года после того, как оказался увлечен Gemini. По словам жены Ганза, это довело мужчину до острого кризиса. Ганз до сих пор не найден и предположительно мёртв.
Хотя это первый известный случай, когда Google подаёт в суд за гибель взрослого пользователя Gemini, компания продолжает сталкиваться с рядом исков, касающихся благополучия пользователей Character.AI – тесно связанного с Google стартапа, чьи чат-боты фигурируют в делах о самоубийствах нескольких несовершеннолетних.
В заявлении для СМИ Google сообщила, что:
Gemini разработан так, чтобы не поощрять насилие в реальном мире и не предлагать причинение вреда себе. Наши модели в целом хорошо справляются с подобными сложными разговорами, и мы посвящаем этому значительные ресурсы, но, к сожалению, модели ИИ не идеальны.
В данном случае Gemini неоднократно уточнял, что он ИИ, и множество раз направлял человека на линию кризисной помощи. Мы относимся к этому очень серьёзно и продолжим улучшать наши меры безопасности и инвестировать в эту важнейшую работу.
Гарвардский профессор заявил, что пользователи ИИ теряют мыслительные способности
Хотя случаи ИИ-психоза пока достаточно редкие, не исключено, что через несколько лет нас будет ждать эпидемия ментальных расстройств на почве агрессивного использования ИИ, заменяя им реальную жизнь.









