Исследование: Открытая база данных AI-созданных изображений оставлена без защиты

Включая материалы детской эксплуатации, созданные искусственным интеллектом

Согласно исследованию, доступному WIRED, без защиты остались десятки тысяч изображений, созданных с помощью ИИ, среди которых материалы с предполагаемой эксплуатацией детей. Открытая база данных компании AI-Nomis содержала свыше 95 000 записей, включая информацию о командах и изображения знаменитостей, таких как Ариана Гранде и Бейонсе, уменьшенные до детского возраста.

База данных, обнаруженная специалистом по безопасности Джеремией Фаулером, связана с сайтом GenNomis из Южной Кореи. Компания AI-Nomis предоставляла инструменты для создания изображений и чат-ботов. Более 45 ГБ данных оставались открытыми для всех пользователей интернета.

Эта утечка показывает, как инструменты создания изображений на основе ИИ могут быть использованы для создания вредного и незаконного контента, в том числе материалов с сексуальным насилием над детьми (CSAM). В последние годы количество сайтов и приложений, создающих "дипфейки" и "раздевательные" изображения, резко возросло, что открывает возможности для нацеливания на женщин и девочек.

Фаулер отмечает опасность таких данных: "С точки зрения безопасности и как родитель, я в ужасе. Ужасает легкость, с которой можно создать такой контент".

Фаулер сообщил об открытой базе данных GenNomis и AI-Nomis в начале марта. Они быстро закрыли доступ к базе, но не ответили на его обращения. Через несколько часов после контакта с WIRED сайты двух компаний оказались недоступны.

Клэр МакГлинн, профессор права в Университете Дарема, добавляет: "Этот случай показывает, что рынок на такие изображения существует. Это напоминает, что создание и распространение CSAM не редкость и зачастую осуществляются ненормальными личностями".

На главной странице GenNomis было много инструментов ИИ, включая генератор изображений и инструмент подмены лиц. Исследователь сообщает, что в базе данных были изображения знаменитостей в детском возрасте, а также порнографические изображения взрослых.

Сайт также позволял создавать откровенные изображения и имел раздел "NSFW", где пользователи могли делиться изображениями и продавать альбомы созданных ИИ фотографий. Политика использования сайта запрещала "детскую порнографию" и другие незаконные действия, но о полномочиях модерации неизвестно.

Эксперт по дипфейкам Генри Айдер говорит, что сайт, рекламировавший "неограниченное" создание изображений, недооценивает безопасность. Айдер отмечает, что за последние годы проблема распространения дипфейков стала острой, и требуется больше мер для борьбы с этой угрозой.

Фаулер отмечает, что произошедшее показывает, насколько технологии опередили существующие правила и контроль. По его словам, "все знают, что детская эксплуатация незаконна, но это не остановило технологии от создания таких образов".

Международный фонд Интернета (IWF) документирует, как преступники используют ИИ для создания и распространения подобных материалов. "Пока преступникам слишком легко использовать ИИ для создания и распространения секс-контента с детьми", — добавляет Дерек Рэй-Хилл, исполняющий обязанности генерального директора IWF.

Отзывы