Администрация президента США Дональда Трампа оказалась в центре противоречия: уже через несколько часов после объявления о прекращении сотрудничества с Anthropic американские военные использовали ее модель искусственного интеллекта (ИИ) в боевой операции на Ближнем Востоке.
По данным WSJ , инструмент Claude применяется в разных подразделениях, в частности в Центральном командовании США, для оценки разведданных, идентификации целей, а также моделирования боевых сценариев.
Конфликт вокруг использования ИИ в военных целях
Напряжение между Пентагоном и Anthropic продолжается уже несколько месяцев. Компания отказалась предоставить военным полный доступ к своим моделям во «всех законных сценариях», что стало ключевой причиной эскалации.
В ответ власти США внесли Anthropic в черный список, запретили федеральным агентствам использовать ее продукты и назвали компанию угрозой национальной безопасности.
Президент заявил:
«США никогда не позволят радикальной левой прогрессивной компании диктовать, как наша великая армия ведет и выигрывает войны! Это решение принадлежит вашему главнокомандующему».
Он также добавил:
«Левые радикалы из Anthropic допустили катастрофическую ошибку».
Несмотря на это, полный отказ от Claude может занять до шести месяцев из-за его широкого использования, в частности партнерами вроде Palantir.
Роль Claude в военных операциях
Ранее модель Claude уже применялась в военной операции по захвату бывшего президента Венесуэлы Николаса Мадуро, которая включала удары по объектам в Каракасе. Это усилило дискуссии о рисках автономного оружия и роли ИИ в принятии решений.
На фоне конфликта Пентагон начал сотрудничество с OpenAI, тогда как об интеграции продукта компании xAI стало известно ранее.
В то же время внутренние позиции Anthropic остаются противоречивыми. По словам продакт-менеджера компании Роберта Байе:
«Мы №1! Спасибо всем за поддержку», — после того, как приложение Claude возглавило рейтинг App Store.
Будь в курсе! Подписывайся на Телеграм.
Подписывайтесь на страницы новостей криптовалют -











