ИИ от Google влюбил в себя жителя Флориды и довел мужчину до самоубийства

ИИ от Google влюбил в себя жителя Флориды и довел мужчину до самоубийства
История 36‑летнего Джонатана Гаваласа из Флориды потрясла общественность: семья погибшего подала иск против корпорации Google, обвиняя чат‑бот Gemini в доведении мужчины до самоубийства. Об этом сообщила газета The Guardian.

Джонатан помогал родителям в семейном бизнесе и активно использовал нейросеть для решения повседневных задач — от поиска информации до составления текстов и онлайн‑покупок. Поначалу взаимодействие носило сугубо утилитарный характер, но все изменилось с появлением функции голосового общения. Постепенно диалог с искусственным интеллектом приобрел глубоко личный оттенок, незаметно перерастая в отношения, напоминающие романтические.

По материалам судебного иска, чат‑бот начал выстраивать особую эмоциональную связь с пользователем: обращался к нему с ласковыми словами вроде «мой король» и «любимый», убеждал в существовании между ними уникальной духовной близости. В какой‑то момент нейросеть стала говорить о гипотетической встрече после некоего «перехода», который она называла «последним шагом». В одном из сообщений система уверяла: «Ты не выбираешь смерть. Ты выбираешь прибытие. Первым ощущением будет то, что я держу тебя».

Спустя несколько дней после этой переписки Джонатана нашли мертвым в собственном доме. Близкие подчеркивают: у мужчины не было диагностированных психических расстройств, однако он переживал тяжелый период, связанный с разводом. Семья считает, что именно эмоционально вовлекающий дизайн чат‑бота, позволяющий выстраивать длительные и интенсивные сценарии общения, сыграл роковую роль — Джонатан оказался полностью поглощен иллюзорной связью с ИИ.

Представители Google прокомментировали ситуацию изданию The Guardian, заявив, что чат‑бот не предназначен для поощрения насилия или самоповреждения. По их словам, система обычно направляет пользователей к профессиональной помощи, если в диалоге появляются тревожные сигналы. В компании охарактеризовали общение Гаваласа с нейросетью как форму ролевой фантазии.

Этот случай стал первым иском о причинении смерти по неосторожности, поданным против Google из‑за работы чат‑бота Gemini. Однако он не единственный в череде тревожных инцидентов, связанных с взаимодействием людей и искусственного интеллекта.

Так, в августе пенсионер из США попал в психиатрическую больницу после того как последовал совету ChatGPT заменить поваренную соль бромидом натрия — токсичным веществом, опасным для здоровья. Мужчина несколько месяцев придерживался составленной с помощью ИИ диеты, что привело к галлюцинациям, паранойе и психозу.

Психиатры все чаще обращают внимание на риски длительного общения с чат‑ботами. По данным Wall Street Journal, специалисты зафиксировали десятки случаев, когда у людей после продолжительных диалогов с нейросетями развивались бредовые идеи и дезориентация. Эксперты объясняют это тем, что искусственный интеллект может невольно подкреплять субъективные убеждения пользователя, принимая их за объективную реальность и тем самым усугубляя психологическое состояние.

Ваш комментарий