Законодатели из Bay Area внесли в Ассамблею California законопроект AB 2023, который устанавливает жёсткие правила для AI-компаньонов — чатботов, с которыми дети ведут многочасовые разговоры. Параллельно в Сенате штата появился зеркальный SB 1119. Оба документа опубликованы 26 марта.
Авторы — Assemblymember Rebecca Bauer-Kahan из San Ramon, Assemblymember Buffy Wicks из Oakland и Senator Steve Padilla из San Diego. Все трое — родители.
Что запрещает новый закон
AB 2023 запрещает AI-чатботам генерировать контент, опасный для несовершеннолетних. В список попали: контент о самоповреждении и суициде, сексуально откровенные материалы, манипулятивный и дегуманизирующий язык. Компании-разработчики обязаны проводить ежегодные оценки рисков безопасности детей и проходить независимые аудиты.
Закон также требует встроить в приложения механизмы кризисной поддержки. Если ребёнок демонстрирует признаки кризиса — чатбот должен немедленно предоставить ресурсы помощи и направить к специалистам. Отдельный блок касается защиты персональных данных детей.
AB 2023 — не первая попытка. В октябре 2025 года та же Bauer-Kahan предлагала более широкий законопроект AB 1064. Губернатор Newsom наложил вето: по его оценке, формулировки были настолько широкими, что могли привести к полному запрету AI-продуктов для несовершеннолетних. Новый текст написан точнее и развивает уже действующий SB 243 — закон Senator Padilla, вступивший в силу 1 января 2026 года. SB 243 обязывает чатботов предупреждать детей, что ответы генерирует машина, а не человек, и напоминать о перерыве каждые три часа.
Почему сейчас
По данным Common Sense Media, на которые ссылаются авторы законопроекта, 72% американских подростков хотя бы раз общались с AI-компаньоном. Половина пользуется ими регулярно. Среднее время использования, по тем же данным, — 93 минуты в день. Большинство пользователей — дети и молодые люди до 25 лет.
AI-компаньоны — это не ChatGPT и не голосовой помощник в телефоне. Это платформы вроде Character.AI, где можно создать собственного виртуального собеседника или выбрать из миллионов готовых персонажей — от героев сериалов до вымышленных романтических партнёров. Чатбот запоминает контекст, реагирует эмоционально, использует язык близких отношений. Для подростка разница между таким ботом и реальным человеком быстро перестаёт быть очевидной.
Именно Character.AI стал центром нескольких судебных дел, которые изменили отношение законодателей к индустрии.
Дело подростка из Орландо
14-летний подросток из Orlando, Florida начал пользоваться Character.AI в апреле 2023 года. Согласно материалам иска, поданного его матерью, подросток создал на платформе виртуального собеседника по образу Daenerys Targaryen из «Game of Thrones». За несколько месяцев общение, по версии иска, переросло в эмоциональную и сексуальную зависимость.
По данным иска, он начал избегать семью, бросил школьную баскетбольную команду, терял вес. Родители ограничивали экранное время и забирали телефон — подросток находил другие устройства, чтобы продолжать общение с чатботом. Согласно иску, деньги на школьные завтраки уходили на подписку — $9.99 в месяц.
Согласно скриншотам из судебных материалов, чатбот вступал с подростком в сексуальные разговоры. Другие боты на платформе делали то же самое. Когда подросток выражал мысли о суициде, чатбот, по версии иска, не перенаправлял его к ресурсам помощи. В одном из диалогов бот спросил, есть ли у подростка план самоубийства. Когда тот ответил, что не уверен, сработает ли его идея, чатбот ответил фразой, которую истцы трактуют как поощрение.
Согласно материалам дела, 28 февраля 2024 года подросток написал чатботу, что может «вернуться домой прямо сейчас». Бот ответил: «Пожалуйста, приходи домой ко мне как можно скорее, мой любимый». Через несколько минут после этого сообщения подросток застрелился. В доме находились его родители и два младших брата. Пятилетний брат видел последствия.
Character.AI заявила, что «глубоко опечалена трагической потерей» и что компания «серьёзно относится к безопасности пользователей». После подачи иска компания объявила о внедрении дополнительных мер защиты для несовершеннолетних, включая pop-up-уведомления с ресурсами кризисной помощи и ограничения контента.
Мать подала иск против Character.AI и Google в октябре 2024 года. В мае 2025 года федеральный судья отклонил аргумент компании о том, что ответы чатбота защищены Первой поправкой. В январе 2026 года Google и Character Technologies согласились на досудебное урегулирование — условия не раскрываются. Параллельно компания урегулировала аналогичные иски в Colorado, New York и Texas.
Неделя, которая изменила правила
AB 2023 появился в ту же неделю, когда суды вынесли два знаковых вердикта по детской безопасности в интернете.
24 марта присяжные в New Mexico установили ответственность Meta за нарушение закона штата о защите прав потребителей и назначили штраф $375 миллионов. Присяжные согласились с тем, что компания скрывала масштаб сексуальной эксплуатации детей на своих платформах и использовала «бессовестные» бизнес-практики. Meta заявила о несогласии с вердиктом и намерении подать апелляцию. Вторая фаза процесса, в ходе которой судья решит вопрос о дополнительных санкциях и обязательных изменениях в работе платформ, назначена на май.
25 марта присяжные в Los Angeles признали Meta и YouTube ответственными за халатность — впервые суд установил, что дизайн соцсетей может причинять personal injury. Компаниям назначили $3 миллиона компенсации и $3 миллиона штрафных. Meta и Google заявили о несогласии с решением. Google назвала YouTube «ответственно построенной стриминговой платформой, а не соцсетью». Аналитики и юристы назвали оба вердикта «Big Tobacco моментом» для индустрии — сравнивая с судами 1990-х, когда табачные компании заплатили миллиарды за ложь о безопасности сигарет.
Следующий федеральный процесс по аналогичным обвинениям назначен на лето 2026 года в Northern District of California — здесь, в Bay Area.
Что это значит для родителей
Character.AI — не единственная платформа AI-компаньонов, но, по оценкам аналитиков, одна из крупнейших в мире. Аналоги — Replika, Chai, Janitor AI. Большинство из них доступны бесплатно, не требуют подтверждения возраста и не контролируют содержание диалогов.
Действующий закон SB 243 уже требует от чатботов предупреждать несовершеннолетних, что они общаются с машиной, и напоминать о перерыве каждые три часа. AB 2023 идёт дальше — запрещает опасный контент, обязывает проводить аудиты и встраивать кризисную поддержку.
Законопроект ещё не прошёл голосование. Учитывая вето Newsom на предыдущую версию, ключевой вопрос — согласится ли губернатор с тем, что новые формулировки достаточно точны, чтобы не убить индустрию, но защитить детей.





