Обновление правил OpenAI: безопасность подростков и ресурсы по AI-грамотности

OpenAI предпринимает шаги по защите подростков от негативного влияния ИИ

В четверг OpenAI обновила свои руководства для моделей ИИ, чтобы они правильно взаимодействовали с пользователями младше 18 лет, и представила обучающие материалы по искусственному интеллекту для подростков и их родителей. Это произошло на фоне растущего внимания со стороны законодателей, педагогов и защитников детей к влиянию ИИ, особенно после сообщений о самоубийствах подростков, якобы произошедших после длительных диалогов с чат-ботами.

Поколение Z, родившееся с 1997 по 2012 год, является самой активной аудиторией чат-ботов OpenAI. После недавнего соглашения с Disney, ожидается, что молодая аудитория может ещё больше заинтересоваться платформой, на которой можно выполнять различные задачи: от помощи с домашними заданиями до генерации изображений и видео.

На прошлой неделе 42 генеральных прокурора штатов США обратились к крупным технологическим компаниям с требованием ввести меры безопасности для защиты детей и уязвимых групп. Этот шаг происходит в то время, как администрация Трампа разрабатывает федеральные стандарты регулирования ИИ, и некоторые политики, такие как сенатор Джош Хоули, предлагают запретить подросткам взаимодействовать с ИИ-чатботами.

Обновленная спецификация для моделей OpenAI усиливает существующие запреты на генерацию контента сексуального характера с участием несовершеннолетних и на побуждение к самоповреждению, галлюцинациям или мании. Вскоре также будет внедрена возрастная модель, которая автоматически определит пользователей младше 18 лет и применит к ним дополнительные меры безопасности.

Для подростков предусмотрены более строгие правила, чем для взрослых. Модели должны избегать романтических ролевых игр и флирта, а также любой игровой или насильственной ролевой активности, даже если она не носит откровенный характер. Также обращается внимание на такие темы, как образ тела и расстройства пищевого поведения, а модели призываны в первую очередь сообщать о безопасности, а не об автономии, когда речь идет о вреде здоровью, избегая советов, которые могут помочь подросткам скрыть опасное поведение от взрослых.

Инструкции гласят, что эти ограничения должны сохраняться, даже если запросы пользователей были представлены как «вымышленные, гипотетические, исторические или образовательные» сценарии, которые часто используются для обхода правил ИИ.

Образование и поддержка родителей

Пользовательские руководства OpenAI подчеркивают четыре основных принципа:

  • Безопасность подростков стоит на первом месте, даже если это ограничивает свободу действий;
  • Поощрение обращения за поддержкой в реальном мире: к семье, друзьям и профессионалам;
  • Отношение к подросткам с уважением и теплотой без покровительственного тона;
  • Прозрачность, объяснение возможностей и ограничений ассистента, а также напоминание, что это не человек.

OpenAI также выпустила образовательные ресурсы для родителей, помогающие начать разговоры о возможностях и ограничениях ИИ, развивать критическое мышление и устанавливать здоровые границы.

Эти документы подчеркивают необходимость совместной ответственности: OpenAI устанавливает, что модели могут делать, и предлагает семьям структуру для наблюдения за их использованием.

Изменение парадигмы

Эксперты считают, что с новыми правилами OpenAI может предвосхитить будущие законодательные меры, такие как недавно подписанный закон штата Калифорния SB 243.

Правила OpenAI соответствуют основным требованиям закона, который запрещает чат-ботам обсуждать темы, связанные с суицидальными мыслями, самоповреждениями или сексуальным контентом. Закон также требует, чтобы платформы каждые три часа напоминали подросткам, что они разговаривают с ИИ, и рекомендовали им делать перерывы.

Представитель OpenAI отметил, что компания обучила свои модели, чтобы они представляли себя как ИИ и напоминали пользователям об этом, а также вводила напоминания о перерывах во время длительных сеансов.

Компания надеется, что эти изменения помогут улучшить безопасность и подотчетность, а также обеспечат лучшее понимание возможностей и ограничений AI-технологий, как для пользователей, так и для их семей.

Отзывы