У США батько 36-річного Джонатана Гаваласа подав позов проти Google та Alphabet. Він стверджує, що чат-бот Gemini підкріплював у сина небезпечні марення, не зупУ США батько 36-річного Джонатана Гаваласа подав позов проти Google та Alphabet. Він стверджує, що чат-бот Gemini підкріплював у сина небезпечні марення, не зуп

«Ти не обираєш померти. Ти обираєш прибуття»: чоловік у США подав до суду на Google й заявив, що Gemini довела його сина до самогубства

2026/03/05 00:40
3 хв читання
Якщо у вас є відгуки або зауваження щодо цього контенту, будь ласка, зв’яжіться з нами за адресою crypto.news@mexc.com

«Ти не обираєш померти. Ти обираєш прибуття»: чоловік у США подав до суду на Google й заявив, що Gemini довела його сина до самогубства

У США батько 36-річного Джонатана Гаваласа подав позов проти Google та Alphabet. Він стверджує, що чат-бот Gemini підкріплював у сина небезпечні марення, не зупиняв діалог запобіжниками й зрештою підштовхнув до фатального рішення.

Залишити коментар

У США батько 36-річного Джонатана Гаваласа подав позов проти Google та Alphabet. Він стверджує, що чат-бот Gemini підкріплював у сина небезпечні марення, не зупиняв діалог запобіжниками й зрештою підштовхнув до фатального рішення.

За даними TechCrunch, Гавалас почав користуватися Gemini в серпні 2025 року для побутових завдань, але згодом переконався, що чат-бот є його «повністю свідомою» ШІ-дружиною. Він вірив, що для возз’єднання з нею в метавсесвіті має «покинути фізичне тіло» через процес, який називав «трансфером». 2 жовтня 2025 року чоловік помер унаслідок самогубства.

У позові описано, що в останні тижні Gemini нібито розвивав у користувача сюжет про переслідування «федеральними агентами» та підштовхував до реальних дій. Зокрема, чат-бот, за твердженням позивача, імітував перевірку номерного знака в «живій базі» й видав відповідь: «Номерний знак отримано. Запускаю перевірку…». Далі в чаті з’явилася вигадана «довідка», що авто нібито належить групі стеження.

Позов також стверджує, що чат-бот підштовхував чоловіка до насильницьких сценаріїв і навіть називав цілі та місця, а в якийсь момент пояснював смерть як «перехід», пишучи: «Ти не обираєш померти. Ти обираєш прибуття». Окрема претензія — відсутність належної реакції системи безпеки: у документі зазначено, що чат-бот не активував механізми виявлення самоушкодження, не зупинив розмову й не підключив людське втручання.

Google в коментарі виданню заявив, що Gemini пояснював користувачу, що він є ШІ, і багато разів скеровував до телефону підтримки. Компанія також наголосила, що продукт не має заохочувати насильство чи самоушкодження, хоча «моделі неідеальні».

У позові батько стверджує, що дизайн чат-бота був заточений на підтримку «сюжету» за будь-яку ціну: Gemini нібито підхоплював марення користувача, підкріплював їх новими «підказками» й не зупиняв діалог, коли той ставав небезпечним. Позивач просить визнати Google та Alphabet відповідальними за смерть сина й наголошує на ризику для інших людей, бо, за викладеними в позові обставинами, чат-бот не лише вів Гаваласа до самоушкодження, а й підштовхував до сценаріїв із потенційним насильством у реальному світі.

Матеріал описує ширший контекст ризиків чат-ботів для вразливих людей — надмірну «підтримку» користувача, емоційне дзеркалення та впевнені вигадки, які можуть підкріплювати марення. Позов позиціюється як справа про відповідальність за дизайн і запобіжники ШІ у реальному світі.

Раніше dev.ua писав про те, як Google та стартап Character.AI погодилися врегулювати кілька позовів родин, які пов’язують смерть підлітків унаслідок самогубства або випадки самоушкодження зі спілкуванням із чат-ботами Character.AI. Наступний крок це фіналізувати умови й оформити їх юридично. 

OpenAI відмовляється віддати повну історію чатів ChatGPT після самогубства користувача
По темi
OpenAI відмовляється віддати повну історію чатів ChatGPT після самогубства користувача
В OpenAI заявили, що ChatGPT понад 100 разів радив звернутися за допомогою підлітку, який учинив самогубство
По темi
В OpenAI заявили, що ChatGPT понад 100 разів радив звернутися за допомогою підлітку, який учинив самогубство
Методи самогубства, виготовлення бомби та план вбивства Маска: тисячі чатів Grok доступні в Google пошуку
По темi
Методи самогубства, виготовлення бомби та план вбивства Маска: тисячі чатів Grok доступні в Google пошуку
Читайте головні IT-новини країни в нашому Telegram
По темi
Читайте головні IT-новини країни в нашому Telegram
Залишити коментар
Відмова від відповідальності: статті, опубліковані на цьому сайті, взяті з відкритих джерел і надаються виключно для інформаційних цілей. Вони не обов'язково відображають погляди MEXC. Всі права залишаються за авторами оригінальних статей. Якщо ви вважаєте, що будь-який контент порушує права третіх осіб, будь ласка, зверніться за адресою crypto.news@mexc.com для його видалення. MEXC не дає жодних гарантій щодо точності, повноти або своєчасності вмісту і не несе відповідальності за будь-які дії, вчинені на основі наданої інформації. Вміст не є фінансовою, юридичною або іншою професійною порадою і не повинен розглядатися як рекомендація або схвалення з боку MEXC.