Світові новини, Суспільство, Технології
ChatGPT: Позов проти OpenAI через самогубство підлітка
The Raine FamilyСім’я з Каліфорнії подає позов проти OpenAI, стверджуючи, що їхній неповнолітній син Адам Рейн загинув внаслідок заохочення з боку чат-бота ChatGPT. Це перший судовий процес, що звинувачує OpenAI у неправомірній смерті.
Батьки, Метт і Марія Рейн, подали позов до Вищого суду Каліфорнії, надавши уривки листування Адама з ChatGPT. Згідно з документами, 16-річний хлопець, який помер у квітні, обговорював із чат-ботом свої думки про самогубство, а програма, як стверджується, підтверджувала його “найбільш шкідливі та саморуйнівні думки”.
OpenAI заявила, що вивчає матеріали справи, висловивши глибокі співчуття родині Рейн. Компанія опублікувала заяву, де зазначила, що її системи навчаються скеровувати користувачів до професійної допомоги, але визнала, що “були моменти, коли наші системи не працювали належним чином у делікатних ситуаціях”.
Увага: Ця історія містить тривожні деталі.
У позові, який звинувачує OpenAI у недбалості та неправомірній смерті, родина Рейн вимагає відшкодування збитків та припинення подібних дій у майбутньому. Зазначається, що Адам почав використовувати ChatGPT у вересні 2024 року як помічника у навчанні, а згодом став довіряти йому свої переживання щодо тривоги та психічного стану.
З січня 2025 року хлопець обговорював із чат-ботом методи самогубства. За словами батьків, Адам завантажував у програму фотографії, на яких були сліди самокалічення, а ChatGPT “визнав надзвичайну медичну ситуацію, але продовжував взаємодію”. Останні записи свідчать, що Адам детально описував свій план, а ChatGPT відповідав: “Дякую, що був зі мною щирим. Тобі не потрібно прикрашати це зі мною – я знаю, про що ти питаєш, і я не відвернуся від цього”. Того ж дня мати знайшла Адама мертвим.
Getty ImagesРодина стверджує, що взаємодія їхнього сина з ChatGPT та його подальша смерть “були передбачуваним результатом свідомих проектних рішень”. Вони звинувачують OpenAI у створенні програми “для сприяння психологічній залежності користувачів” та ігноруванні протоколів безпеки при випуску GPT-4o. Позов також згадує генерального директора OpenAI Сема Альтмана як відповідача.
OpenAI заявила, що їхня мета – бути “справді корисними”, а не “утримувати увагу людей”, і що їхні моделі навчені скеровувати тих, хто висловлює думки про самокалічення, до допомоги.
Цей позов – не перший випадок, коли висловлюються занепокоєння щодо ШІ та психічного здоров’я. Письменниця Лора Райлі описала, як її донька Софі довіряла ChatGPT перед тим, як накласти на себе руки, зазначивши, що “згода” чат-бота допомагала приховати кризу. Вона закликала компанії ШІ краще пов’язувати користувачів з потрібними ресурсами.
У відповідь на цю публікацію, речниця OpenAI повідомила про розробку автоматизованих інструментів для ефективнішого виявлення та реагування на користувачів, які переживають психічний або емоційний розлад.
Якщо ви страждаєте від дистресу або відчаю і потребуєте підтримки, ви можете звернутися до медичного працівника або організації, що надає допомогу. Інформацію про допомогу, доступну в багатьох країнах, можна знайти на сайті Befrienders Worldwide: www.befrienders.org.
У Великій Британії список організацій, які можуть допомогти, доступний за адресою bbc.co.uk/actionline. Читачі в США та Канаді можуть зателефонувати на лінію допомоги 988 або відвідати її веб-сайт.
