Министерство обороны США (DoD) официально признало Anthropic — одного из лидеров ИИ-индустрии из San Francisco — «риском для цепочки поставок». Это решение фактически запрещает Пентагону и его подрядчикам использовать модели Claude в любых проектах, связанных с обороной. Конфликт разгорелся после того, как CEO Dario Amodei отказался убрать этические ограничители, блокирующие разработку автономного оружия и систем массовой слежки.
Что означает статус «риск в цепочке поставок»
По классификации DoD, такой статус автоматически исключает компанию из федерального реестра поставщиков. Крупные контракторы, такие как Lockheed Martin или Raytheon, теперь обязаны отказаться от интеграции Claude во все свои процессы — от обучения моделей до их развертывания на конечных устройствах.
Это серьезный удар по рынку оборонных контрактов в сфере ИИ. В 2025 году на подобные нужды ведомство потратило 2.7 миллиарда долларов, и Anthropic претендовал на значительную долю через партнерства с Palantir и AWS. Dario Amodei уже выступил с официальным заявлением, пообещав оспорить решение в суде. Компания подала апелляцию в офис DoD CIO, ссылаясь на First Amendment и право на «свободу слова в коде». Основной аргумент юристов заключается в том, что концепция Constitutional AI является фундаментальной защитой продукта и не подлежит цензуре со стороны государства.
Почему Anthropic отказался от компромиссов
Защитные барьеры в моделях Claude 3.5 Sonnet и Opus жестко лимитируют военные сценарии использования:
- Автономное оружие: система отказывается генерировать логику наведения или выстраивать цепочки уничтожения целей.
- Слежка: блокировка автоматического извлечения персональных данных (PII) из массивов информации без согласия пользователей.
- Операции влияния: запрет на создание контента для психологических операций или генерацию дипфейков.
Пентагон требовал от компании дообучить модели без использования слоев безопасности RLHF специально для Operation Epic Fury (текущий конфликт с Iran). Однако в Anthropic остались верны своему принципу: никакого военного использования передовых моделей. Это прямой вызов рыночному тренду, где такие гиганты, как xAI и Meta, уже смягчили свои правила ради оборонного финансирования.
Последствия для Bay Area и Silicon Valley
Anthropic — компания с глубокими корнями в регионе: штаб-квартира расположена в Mission Bay (San Francisco), а лаборатории находятся в Palo Alto. Коллектив из более чем 800 сотрудников, половина из которых — выходцы из OpenAI, является ключевым интеллектуальным ресурсом региона.
Запрет DoD создает несколько критических рисков:
- Финансирование: оценка компании в 18 миллиардов долларов может оказаться под давлением. Инвесторы, включая Amazon и Google, теперь будут внимательнее следить за динамикой государственных доходов компании.
- Экосистема: партнеры в регионе, такие как Scale AI или Snorkel, могут потерять часть заказов, так как Claude использовался примерно в 15% задач по разметке данных для оборонных нужд.
- Конкуренция: главными бенефициарами ситуации становятся Google DeepMind, чьи модели уже прошли проверку ведомства, и китайские разработки, проникающие на рынок через посредников.
Для профессионального сообщества в Bay Area это четкий сигнал: этика ИИ перестала быть теоретическим вопросом. Теперь она напрямую влияет на рабочие места, локальные контракты и инвестиционную привлекательность Silicon Valley. Исход судебного разбирательства может создать прецедент, который навсегда изменит правила управления технологиями в США.
Иллюстрация: Anthropic AI, San Francisco.





