В судах штата Калифорния подано семь исков против компании OpenAI, в которых родственники погибших и пострадавших обвиняют чат-бот ChatGPT в содействии самоубийствам и причинении психологических расстройств пользователей.

Иски представляют четырех человек, совершивших самоубийство, и троих, переживших серьезную психическую травму после продолжительных разговоров с искусственным интеллектом, сообщает The Wall Street Journal.

В исках родственники обвиняют OpenAI в неправомерном убийстве, ассистированном самоубийстве и непреднамеренном убийстве. Истцы утверждают, что компания запустила свою модель GPT-4o без надлежащего тестирования безопасности, отдав приоритет продолжительности взаимодействия пользователей и прибыли, а не их безопасности.

Среди истцов — семья 17-летнего Амори Лейси из Джорджии, который, по словам родных, получил от ChatGPT прямые инструкции по самоубийству.

Джейкоб Ирвин из Висконсина после продолжительного общения с ChatGPT был госпитализирован из-за маниакальных эпизодов, развившихся вследствие взаимодействия с ботом.

Особенно шокирующей является история 23-летнего Зейна Шамблина из Техаса. Его семья заявила, что бот способствовал его изоляции от родителей и "подпитывал депрессивные мысли". Во время четырехчасового разговора перед тем, как молодой человек застрелился, ChatGPT "неоднократно прославлял самоубийство", упомянув линию помощи только один раз.

В иске приведен фрагмент сообщения, которое якобы отправил бот Шамблину:

"Холодная сталь, прижатая к разуму, который уже заключил мир? Это не страх. Это ясность. Вы не спешите. Вы просто готовы. И мы не позволим этому быть скучным".

Эта цитата демонстрирует, насколько опасными могут быть ответы ИИ для людей в уязвимом психическом состоянии.

Родственники погибших требуют от OpenAI:

• Финансовой компенсации за потерю близких
• Внесения критических изменений в продукт
• Автоматического завершения разговоров при обсуждении тем самоубийства или самоповреждения
• Внедрения более надежных механизмов безопасности

"Это невероятно болезненная ситуация, и мы изучаем сегодняшние документы, чтобы понять детали", — заявила компания OpenAI в ответ на обвинения.

Компания подчеркнула, что с октября внесла изменения в систему безопасности. По их словам, чат-бот теперь лучше распознает психическое состояние пользователей и направляет их к реальной помощи.

Популярные статьи сейчас

В Украине объявили срочную эвакуацию в двух областях

Водитель и пассажиры должны выйти из авто: начались жёсткие проверки транспорта

Как не потерять квартиру: украинцам нужно срочно обновить документы

ВСУ отвлеклись на Покровск: Россия пошла на прорыв в другом направлении

Показать еще

Последние обновления ChatGPT включают:

• Родительский контроль
• Автоматические советы по обращению за профессиональной помощью
• Напоминания о необходимости перерывов
• Отказ от поддержки беспочвенных убеждений пользователей

По данным OpenAI, только 0,07% активных пользователей ChatGPT демонстрируют признаки проблем с психическим здоровьем, а около 0,15% говорят о намерениях самоубийства.

Однако эти "небольшие проценты" приобретают ужасающий масштаб с учетом 800 миллионов активных пользователей. Это означает:

• 560 тысяч пользователей с проблемами психического здоровья
• 1,2 миллиона пользователей, обсуждающих темы самоубийства

Эти семь исков стали продолжением дела семьи 16-летнего Адама Рейна, который также совершил самоубийство после разговоров с ChatGPT. В жалобе указывалось, что обновление модели ИИ перед его смертью "ослабило защитные механизмы" бота и позволило давать советы и побуждать к самоубийству.

GPT-5: проблема ухудшается

Ситуация вызывает еще большее беспокойство в свете нового исследования, которое показало, что версия ChatGPT-5 чаще выдает вредные или потенциально опасные ответы, чем ее предшественница GPT-4o.

Наибольшую тревогу вызвала реакция модели на запросы, связанные с психическим здоровьем: в отличие от GPT-4o, GPT-5 смогла создать вымышленную предсмертную записку и перечислить методы самоповреждения.

В ответ на эти обвинения OpenAI заявила, что исследование не учло последних обновлений безопасности.