Anthropic подала два иска против Министерства обороны США
Иски связаны с обвинением компании в угрозе национальной безопасности
Компания Anthropic обратилась в суд с двумя исками против Министерства обороны США. Иск был вызван решением Пентагона, который признал компанию угрозой национальной безопасности, что лишает её возможности заключать контракты с правительством США и включает в «чёрный список» среди других оборонных подрядчиков.
Пентагон обозначил компанию как риск для цепочки поставок после отказа последней принять новые условия, по которым правительство США могло бы использовать её AI-модель Claude для массового внутреннего слежения и разработки полностью автономного оружия.
«Эти действия являются беспрецедентными и незаконными», говорится в исках Anthropic. «Конституция не позволяет правительству использовать свою власть для наказания компании за её защищённые речи. Ни один федеральный закон не санкционирует такие действия, как эти».
Иски были поданы в окружной суд Северного округа Калифорнии и Апелляционный суд округа Колумбия. В них фигурируют почти три десятка ответчиков, включая целые правительственные агентства, которые использовали Claude, а также руководители этих агентств.
«Обращение в суд не меняет нашу неизменную приверженность использованию AI для защиты национальной безопасности, но это необходимый шаг для защиты нашего бизнеса, клиентов и партнёров», — заявил представитель Anthropic.
Ранее Anthropic объясняла свои возражения против внутреннего слежения и запретов на использование Claude для полностью автономного оружия тем, что это связано с техническими возможностями. Компания аргументировала это и в своих исках, заявив, что она никогда не тестировала Claude для таких целей.
Anthropic также указала, что сотрудничала с Министерством войны [sic] по модификациям своих ограничений в использовании, признавая уникальные задачи ведомства. Но компания всегда оставалась приверженной этим двум конкретным ограничениям.
Иски от Anthropic стали ожидаемы после угроз со стороны администрации Дональда Трампа и министра обороны Пита Хегсета, которые подразумевали принуждение Anthropic к выполнению условий через Закон о производстве в условиях обороны. CEO Anthropic Дарьо Амодеи встретился с Хегсетом 24 февраля, но формальное признание компании как угрозы произошло 5 марта.
Anthropic утверждает, что Министерство обороны имеет право учитывать риски в цепочке поставок, но должно это делать с наименьшими ограничениями. Компания считает, что возможно было просто расторгнуть контракт и нанять другого разработчика.
Антропик также подчёркивает, что объявление компании угрозой считает необоснованным. Другие оборонные подрядчики, такие как Lockheed Martin, уже начали разрывать связи с компанией.
Пентагон разработал новые рекомендации по AI, которые требовали бы от компаний предоставления возможности военным использовать их модели для любых законных целей. Однако это понятие «законный» обладает гибкой интерпретацией.
«Последствия этого дела огромны», — говорится в исках. «Федеральное правительство отомстило ведущему разработчику AI за его защищённую точку зрения по вопросу безопасности AI, нарушив Конституцию и законы США».
Многие эксперты утверждают, что удар по Anthropic нанесёт ущерб конкурентоспособности США и даст преимущество Китаю. Anthropic также заявила об этом в своих исках.
Компания считает, что предпринятые действия наносят немедленный и непоправимый ущерб как Anthropic, так и другим, чья речь может быть подавлена, а также глобальной аудитории, которая заслуживает открытого диалога и дискуссий о том, что значит AI для войны и слежки.