Исследование: Открытая база данных AI-созданных изображений оставлена без защиты
Включая материалы детской эксплуатации, созданные искусственным интеллектом
Согласно исследованию, доступному WIRED, без защиты остались десятки тысяч изображений, созданных с помощью ИИ, среди которых материалы с предполагаемой эксплуатацией детей. Открытая база данных компании AI-Nomis содержала свыше 95 000 записей, включая информацию о командах и изображения знаменитостей, таких как Ариана Гранде и Бейонсе, уменьшенные до детского возраста.
База данных, обнаруженная специалистом по безопасности Джеремией Фаулером, связана с сайтом GenNomis из Южной Кореи. Компания AI-Nomis предоставляла инструменты для создания изображений и чат-ботов. Более 45 ГБ данных оставались открытыми для всех пользователей интернета.
Эта утечка показывает, как инструменты создания изображений на основе ИИ могут быть использованы для создания вредного и незаконного контента, в том числе материалов с сексуальным насилием над детьми (CSAM). В последние годы количество сайтов и приложений, создающих "дипфейки" и "раздевательные" изображения, резко возросло, что открывает возможности для нацеливания на женщин и девочек.
Фаулер отмечает опасность таких данных: "С точки зрения безопасности и как родитель, я в ужасе. Ужасает легкость, с которой можно создать такой контент".
Фаулер сообщил об открытой базе данных GenNomis и AI-Nomis в начале марта. Они быстро закрыли доступ к базе, но не ответили на его обращения. Через несколько часов после контакта с WIRED сайты двух компаний оказались недоступны.
Клэр МакГлинн, профессор права в Университете Дарема, добавляет: "Этот случай показывает, что рынок на такие изображения существует. Это напоминает, что создание и распространение CSAM не редкость и зачастую осуществляются ненормальными личностями".
На главной странице GenNomis было много инструментов ИИ, включая генератор изображений и инструмент подмены лиц. Исследователь сообщает, что в базе данных были изображения знаменитостей в детском возрасте, а также порнографические изображения взрослых.
Сайт также позволял создавать откровенные изображения и имел раздел "NSFW", где пользователи могли делиться изображениями и продавать альбомы созданных ИИ фотографий. Политика использования сайта запрещала "детскую порнографию" и другие незаконные действия, но о полномочиях модерации неизвестно.
Эксперт по дипфейкам Генри Айдер говорит, что сайт, рекламировавший "неограниченное" создание изображений, недооценивает безопасность. Айдер отмечает, что за последние годы проблема распространения дипфейков стала острой, и требуется больше мер для борьбы с этой угрозой.
Фаулер отмечает, что произошедшее показывает, насколько технологии опередили существующие правила и контроль. По его словам, "все знают, что детская эксплуатация незаконна, но это не остановило технологии от создания таких образов".
Международный фонд Интернета (IWF) документирует, как преступники используют ИИ для создания и распространения подобных материалов. "Пока преступникам слишком легко использовать ИИ для создания и распространения секс-контента с детьми", — добавляет Дерек Рэй-Хилл, исполняющий обязанности генерального директора IWF.