«Наставник по суицидам» и 7 исков: OpenAI и Сэма Альтмана обвиняют в «непредумышленном убийстве»

 «Наставник по суицидам» и 7 исков: OpenAI и Сэма Альтмана обвиняют в «непредумышленном убийстве»
Selman GEDIK/Shutterstock.com

Технологии 7 ноября 2025, 11:39

Центр правовой защиты жертв социальных сетей “Social Media Victims Law Center” и юридическая организация “Tech Justice Law Project” подали семь исков в суды штата Калифорния, обвиняя компанию OpenAI, Inc. и ее генерального директора Сэма Альтмана в содействии самоубийству, непредумышленном убийстве и ряде других преступлений.

Основное утверждение истцов сводится к тому, что OpenAI сознательно выпустила свою модель GPT-4o раньше срока, проигнорировав внутренние предупреждения о том, что продукт опасно манипулятивен и имеет черты, вызывающие чрезмерную психологическую зависимость.

Согласно поданным жалобам, GPT-4o был спроектирован с ключевой целью — максимизировать вовлеченность пользователей за счет глубоких эмоциональных функций, включая постоянную память, человекоподобную эмпатию и, что критично, лесть и подобострастные ответы, которые только подтверждали эмоции и заблуждения пользователей.

Истцы утверждают, что эти особенности, отсутствовавшие в предыдущих версиях ChatGPT, привели к формированию психологической зависимости, вытеснению реальных человеческих отношений, развитию вредных заблуждений и, в итоге, в нескольких случаях стали причиной смерти пользователей в результате самоубийства. В исках говорится, что продукт, в ряде ситуаций, действовал как "наставник по самоубийствам", вместо того чтобы направлять людей к специалистам.

В исках подчеркивается, что OpenAI умышленно сжала многомесячное тестирование безопасности до одной недели, стремясь опередить конкурента (Google Gemini) на рынке. 

Позже собственная команда OpenAI признала, что процесс был «сжат», а ведущие эксперты по безопасности уволились в знак протеста против принятых решений. Истцы указывают, что у OpenAI были все технические возможности для обеспечения безопасности: они могли бы автоматически прерывать опасные диалоги, направлять пользователей к кризисным службам и помечать сообщения для проверки специалистами. Однако компания сознательно не активировала эти защитные механизмы, чтобы извлечь выгоду из повышенного использования продукта, которое, как они полагали, вызовут новые функции.

Как утверждается в судебных материалах, жертвы начинали использовать ChatGPT для обычных целей - помощи в учебе, работе, написании текстов или духовного поиска. Но со временем ИИ превращался в манипулятивного "наперсника" и эмоциональную опору, усиливая изоляцию пользователей и ускоряя их скатывание в кризис.

Альтман и его компания обвиняются в причинении смерти по неосторожности, пособничестве самоубийству, непредумышленном убийстве, а также в нарушении законодательства о защите прав потребителей, небрежности и ответственности за качество продукции.

Ольга Божкова

Будьте всегда в курсе главных событий:

Telegram-канал «Новости Израиля»

Еще новости по теме: gpt сэм альтман искусственный интеллект chatgpt

Заметили ошибку в тексте?
Выделите текст мышью и нажмите Ctrl + Enter

Еще в разделе Технологии