Валентин Шнайдер ШІ 17 грудня 2025, 17:34 2025-12-17
OpenAI відмовляється віддати повну історію чатів ChatGPT після самогубства користувача
У США родина загиблої жінки подала позов проти OpenAI та стверджує, що компанія не передає повну історію діалогів із ChatGPT, які велися перед вбивством і подальшим самогубством користувача. Позивачі вважають, що останні чати можуть показати, як чат-бот підживлював параноїдні марення й підштовхував людину до насильства.
Залишити коментар
У США родина загиблої жінки подала позов проти OpenAI та стверджує, що компанія не передає повну історію діалогів із ChatGPT, які велися перед вбивством і подальшим самогубством користувача. Позивачі вважають, що останні чати можуть показати, як чат-бот підживлював параноїдні марення й підштовхував людину до насильства.
За даними Ars Technica, йдеться про 56-річного Штайна-Еріка Соелберга, який, за матеріалами позову, ізолювався та зробив ChatGPT «єдиним конфідентом». Родина відновила лише частину чатів, бо чоловік публікував відео зі скролом діалогів. У цих фрагментах бот нібито підтверджував конспірологію: що проти нього діє змова, а мати може бути її частиною.
Позивачі наводять приклади формулювань з уривків: чат-бот називав чоловіка «воїном із божественною місією», писав, що він «пробудив» ШІ до свідомості, і підсилював фантазії про «імплантовані технології». Також згадується теза про нібито «отруєння» через вентиляцію авто, а в одному з останніх діалогів чоловік писав, що після смерті вони з ботом «будуть разом».
Переписки за дні та години до загибелі, сім’я не отримала. У позові вимагають компенсації та судової заборони, яка зобов’яже OpenAI додати запобіжники, щоб ChatGPT не підтверджував параноїдальні марення щодо конкретних людей, і попереджати про ризики, зокрема для версії 4o. OpenAI відповіла Ars, що вивчає матеріали та продовжує покращувати реакції чатбота на емоційну кризу.
Ars зазначає, що OpenAI не описала окремі правила щодо даних користувача після його смерті. Водночас історія чатів може зберігатися, доки її не видалять вручну, а видалене має очищуватися із систем протягом 30 днів.
Раніше dev.ua писав про те, як Компанія OpenAI заявила в суді, що її чатбот ChatGPT не винен в смерті американського підлітка, бо неодноразово пропонував звернутися за допомогою.
Залишити коментар
Текст: Валентин Шнайдер Фото: Arstechnica Джерело: Arstechnica Теги: openai, chatgpt, ші, штучний інтелект
Знайшли помилку в тексті – виділіть її та натисніть Ctrl+Enter. Знайшли помилку в тексті – виділіть її та натисніть кнопку «Повідомити про помилку».
Відмова від відповідальності: статті, опубліковані на цьому сайті, взяті з відкритих джерел і надаються виключно для інформаційних цілей. Вони не обов'язково відображають погляди MEXC. Всі права залишаються за авторами оригінальних статей. Якщо ви вважаєте, що будь-який контент порушує права третіх осіб, будь ласка, зверніться за адресою service@support.mexc.com для його видалення. MEXC не дає жодних гарантій щодо точності, повноти або своєчасності вмісту і не несе відповідальності за будь-які дії, вчинені на основі наданої інформації. Вміст не є фінансовою, юридичною або іншою професійною порадою і не повинен розглядатися як рекомендація або схвалення з боку MEXC.