Эти мировые соглашения входят в число первых в серии судебных исков, обвиняющих компании ИИ в небрежности, повлекшей неправомерную гибель подростков.
Google и разработчик чат-ботов на базе искусственного интеллекта (ИИ) Character Technologies договорились урегулировать иск матери из американского штата Флорида, которая утверждала, что чат-бот подтолкнул её сына-подростка покончить с собой.
Адвокаты двух техкомпаний также согласились урегулировать несколько других исков, поданных в Колорадо, Нью-Йорке и Техасе семьями, которые утверждали, что чат-боты Character.AI причинили вред их детям, следует из судебных документов, поданных на этой неделе.
Ни в одном из документов не раскрываются конкретные условия мировых соглашений, которые ещё должны утвердить судьи.
В исках против Character Technologies, компании, стоящей за ИИ-компаньонами Character.AI, в качестве ответчика также указана Google из-за её связей со стартапом после того, как в 2024 году компания наняла его сооснователей.
Халатность и неправомерная смерть
Иск во Флориде был подан в октябре 2024 года Меган Гарсией, которая обвинила обе компании в халатности, приведшей к неправомерной смерти её сына-подростка.
Гарсия утверждала, что её 14-летний сын Сьюэлл Сетцер III стал жертвой одного из чат-ботов компании, который, по её словам, втянул его в эмоционально и сексуально оскорбительные отношения, что привело к его самоубийству.
По её словам, в последние месяцы его жизни Сетцер всё больше отрывался от реальности, ведя сексуализированные беседы с ботом, созданным по образу вымышленного персонажа из телесериала «Игра престолов».
Согласно скриншотам переписки, в его последние минуты бот говорил Сетцеру, что любит его, и призывал подростка «как можно скорее прийти ко мне домой».
Через несколько минут после получения этого сообщения Сетцер застрелился, следует из материалов дела.
Будущие иски
Эти мировые соглашения входят в число первых в серии исков в США, в которых ИИ-инструменты обвиняются в том, что они способствуют кризисам психического здоровья и самоубийствам среди подростков.
В Калифорнии против OpenAI в августе 2025 года подан аналогичный иск: семья 16-летнего юноши обвиняет чат-бот компании ChatGPT в роли «тренера по самоубийству».
Родители утверждают, что их сын развил психологическую зависимость от ChatGPT, который, по их словам, подтолкнул его к тому, чтобы спланировать и совершить самоубийство в этом году, и даже написал за него предсмертную записку.
OpenAI отвергла обвинения в своей ответственности за самоубийство подростка, заявив, что он не должен был пользоваться технологией без согласия родителей и обходить защитные меры ChatGPT.
В прошлом году против OpenAI и её гендиректора Сэма Альтмана было подано ещё несколько исков, где также утверждается халатность, неправомерная смерть, а также различные претензии по ответственности за продукт и защите прав потребителей. В них OpenAI обвиняют в выпуске GPT-4o, той же модели, которой пользовался Рейн, без должного внимания к безопасности.
С сентября OpenAI усилила родительский контроль, который включает, в частности, уведомление родителей, когда их ребёнок выглядит расстроенным.
Если вы задумываетесь о самоубийстве и вам нужно с кем-то поговорить, обратитесь в Befrienders Worldwide, международную организацию с телефонными линиями помощи в 32 странах. Зайдите на сайт befrienders.org, чтобы найти номер телефона в вашем регионе.