Когти
@ai_longreadsЭссе о конфликте между Anthropic и Министерством обороны США, в котором автор анализирует контрактные ограничения на использование ИИ военными, угрозу признания американской компании «риском для цепочки поставок» и последствия этого решения для индустрии искусственного интеллекта и американской республики.
Это AI-перевод статьи, сделанный каналом Про AI: Лучшие Статьи и Исследования.
Когти
Clawed Автор: Dean W. Ball Оригинальный текст:
I.
Чуть более десяти лет назад я сидел рядом с отцом и смотрел, как он умирает. Полгода до этого он был полным сил человеком, крепче меня нынешнего, быстрее и выносливее на велосипеде, чем большинство двадцатилетних. А потом в один день ему сделали операцию на сердце, и он уже никогда не стал прежним. Словно кто-то высосал из него душу, жизнь ушла из его глаз. Случались моменты, когда мой отец возвращался в своё стареющее тело, но со временем они становились всё реже. Связность его речи угасала, голос слабел.
Эти полгода он провёл, то попадая в больницу, то выписываясь. А потом в свой последний день он попал в хоспис. В тот день он почти не произнёс ни слова. В последние часы жизни мой отец был фактически уже мёртв. Он лежал на больничной кровати. Его дыхание постепенно замедлялось, становясь всё тише. В какой-то момент его почти не стало слышно — лишь жутковатое предсмертное хрипение, издаваемое телом, которое уже не способно глотать. Тело, которое не может глотать, не может и есть или пить, и в этом смысле оно уже сдалось.
Мы с мамой обменивались понимающими взглядами, но никогда не произносили очевидного и не задавали вопросов, которые были у обоих на уме. Мы знали, что осталось недолго. Нечего было сказать или спросить, что дало бы полезную информацию; расспросы на этом этапе могут лишь причинить боль.
Я говорил с ним, не раз, наедине. Я держал его за руку и пытался попрощаться. Мама вернулась в палату, и мы втроём взялись за руки. В конце концов аппарат длинным гудком объявил, что он пересёк некую черту, хотя для людей в палате она была невидимой. Мой отец умер в конце дня 26 декабря 2014 года.
Несколько дней и одиннадцать лет спустя, 30 декабря 2025 года, родился мой сын. Я видел смерть в момент её наступления, и я видел рождение. Я понял, что ни то ни другое не является дискретным событием. И то и другое — процессы, нечто разворачивающееся. Рождение — это серия пробуждений, а смерть — серия засыпаний. Моему сыну понадобятся годы, чтобы родиться, а моему отцу понадобилось полгода, чтобы умереть. Некоторые люди умирают десятилетиями.
II.
В какой-то момент при моей жизни — не знаю точно, когда — американская республика в том виде, в каком мы её знаем, начала умирать. Как и при большинстве естественных смертей, причины многочисленны и переплетены. Ни один отдельный инцидент, чрезвычайная ситуация, нападение, президент, политическая партия, закон, идея, человек, корпорация, технология, ошибка, предательство, провал, заблуждение или иностранный противник не «стали причиной» начала смерти, хотя все они и многое другое этому способствовали. Я не знаю, на каком этапе процесса умирания мы находимся, но я знаю, что мы в палате хосписа. Я знал это давно, хотя порой пребывал в отрицании, как свойственно всем скорбящим. Мне не нравится об этом говорить; я на той стадии, когда разговоры об этом обычно лишь причиняют боль.
Однако, к сожалению, я не могу выполнять свою работу писателя с тем уровнем аналитической строгости, который вы от меня ожидаете, не признавая, что мы сидим в хосписе. Всё сложнее честно обсуждать развитие передового ИИ и то, какое будущее мы должны стремиться построить, не осознавая своего места у смертного одра республики. Только вот нет удобного аппарата, который решил бы за нас, что пациент умер. Нам остаётся лишь сидеть и наблюдать.
Наша республика умирала и возрождалась не раз за историю Америки. У Америки было несколько «оснований». Возможно, мы на пороге нового возрождения американской республики, очередной главы непрерывного переизобретения Америкой самой себя. Надеюсь на это. Но, может быть, у нас уже не осталось ни добродетели, ни мудрости для такого основания, и лучше думать о себе как о тех, кто постепенно переходит в эпоху пост-республиканского американского государственного управления. Я не претендую на то, что знаю ответ.
Сейчас я собираюсь написать о стычке между ИИ-компанией и правительством США. Не хочу звучать гиперболизировано. Смерть, которую я описываю, происходила большую часть моей жизни. Инцидент, о котором я сейчас расскажу, произошёл на прошлой неделе, и, возможно, к завтрашнему дню будет наполовину удовлетворительно разрешён.
Я не утверждаю, что этот инцидент «вызвал» некую республиканскую смерть, и не говорю, что он «открыл новую эру». Если это событие что-то и дало, так это сделало продолжающуюся смерть более очевидной и менее отрицаемой лично для меня. Я считаю события прошлой недели своего рода предсмертным хрипом старой республики, внешним проявлением тела, которое сдалось.
III.
Вот факты, как я их понимаю: при администрации Байдена ИИ-компания Anthropic договорилась о сделке с Министерством обороны (ныне известным как Министерство войны, далее — МВ) по использованию ИИ-системы Claude в секретных контекстах. Эта сделка была расширена администрацией Трампа в июле 2025 года (раскрытие конфликта интересов: в тот момент я работал в администрации Трампа, хотя не участвовал в этой сделке). Другие языковые модели доступны в несекретных средах, но до совсем недавнего времени только Claude мог использоваться для секретной работы — именно там происходит сбор разведданных, поддержка боевых операций и тому подобное.
Сделка, первоначально согласованная между командой Байдена и Anthropic — и стоит отметить, что несколько ключевых архитекторов политики Байдена в сфере ИИ присоединились к Anthropic сразу после окончания его срока — включала два ограничения по использованию. Во-первых, Claude не может использоваться для массовой слежки за американцами. Во-вторых, Claude не может управлять летальным автономным оружием — то есть оружием, способным идентифицировать, отслеживать и уничтожать цели без участия человека ни на одном из этапов. Расширяя сделку, администрация Трампа имела возможность пересмотреть эти условия. Она их рассмотрела и приняла.
Представители Трампа утверждают, что передумали не столько потому, что хотят вести массовую слежку за американцами или использовать автономное летальное оружие в ближайшее время, а потому, что в целом возражают против самого понятия частных ограничений на использование технологий военными. Изменение позиции администрации по условиям этой сделки привело их к политическому решению, направленному на то, чтобы нанести ущерб или даже уничтожить Anthropic — одну из самых быстрорастущих компаний в истории капитализма и, пожалуй, нынешнего мирового лидера в области ИИ, отрасли, которую администрация, по её собственным заявлениям, считает критически важной для будущего страны. Но об этом позже.
IV.
У администрации Трампа есть аргумент: действительно звучит неправильно, что частные корпорации могут налагать ограничения на использование технологий военными. Однако, разумеется, тысячи частных корпораций именно так и делают. Каждая сделка по передаче технологий между частной фирмой и военными предполагает контракт (собственно, компании, которые этим занимаются, потому и называются «оборонные подрядчики»), и эти контракты стандартно содержат ограничения по использованию («система X не может использоваться в странах Y» — обычное ограничение для телекоммуникационных технологий, таких как Starlink Илона Маска), технические ограничения («этот истребитель сертифицирован только для использования в условиях X, и его эксплуатация за пределами этих условий является нарушением гарантии»), а также ограничения интеллектуальной собственности («подрядчик владеет и может повторно использовать и перепродавать ноу-хау и ИС, связанные с системой вооружения X, разработанной на государственные средства»).
В каком-то смысле условия Anthropic похожи на эти традиционные примеры частных контрактных ограничений на военное использование технологий. Позиция компании по автономному летальному оружию, например, не является категорическим отказом от применения такого оружия, а представляет собой суждение о том, что сегодняшние передовые ИИ-системы недостаточно способны, чтобы автономно принимать решения о жизни и смерти людей. Это похоже на второй пример выше (ограничения на использование истребителя).
Однако принципиальное отличие состоит в том, что Anthropic по сути использует контрактный механизм для наложения ограничений, которые больше похожи не на технические, а на политические ограничения для военных. Представьте себе разницу между «этот истребитель не сертифицирован для полётов выше такой-то высоты, и если вы поднимитесь выше, вы нарушите гарантию» и «вам запрещено летать на этом истребителе выше такой-то высоты». Вероятно, военным не следует соглашаться на такие условия, а частным фирмам — пытаться их устанавливать.
Но администрация Байдена согласилась с этими условиями, и администрация Трампа тоже — пока не передумала. Уже одно это должно прояснить: подобные условия не являются какими-то абсурдными нарушениями норм оборонных контрактов. Любой, кто пытается убедить вас в обратном, либо не владеет информацией, либо лжёт. Всё так просто.
Не существует закона, который гласит: «контрактные условия между военными и частным сектором могут содержать технические ограничения, но не политические» — отчасти потому, что границу между этими вещами чрезвычайно трудно провести вечными и универсальными словами (то есть в форме закона). Контракт был не незаконным, а, возможно, просто неразумным, и то, вероятно, лишь в ретроспективе. Заметьте, это верно, даже если вы согласны с сутью ограничений. Можно поддерживать запрет на массовую внутреннюю слежку и летальное автономное оружие, но при этом не соглашаться, что оборонный контракт — оптимальный инструмент для достижения этого политического результата. Обычный способ достижения новых политических результатов в рамках правил нашей республики — принять закон.
Только вот понятие «принять закон» всё больше превращается в шутку в современной Америке. Если вы серьёзно настроены на результат, «принять закон» — это уже не план А; динамика скорее такая: «ну конечно, когда-нибудь мы примем закон, но поскольку нам действительно важно сделать это в обозримом будущем, а не через 15 лет, мы достигнем цели через [какую-то другую процедуру или правовой механизм]». С этим управление становилось всё более неформальным и ситуативным, власть — всё более зависимой от исполнительной ветви (чей стимул — протолкнуть каждую свою цель через имеющиеся полномочия в кратчайшие сроки, поскольку ему гарантирован только срок пребывания в должности), а правовые инструменты — всё менее подходящими для обстоятельств их применения или целей, ради которых они задействуются.
Есть две проблемы, которые, по словам администрации Трампа, заставили её передумать: первая — что Anthropic может навязать им политические ограничения, например, отключив Claude от военного использования во время активных боевых операций. Вторая — что эти политические ограничения распространятся через Anthropic как субподрядчика других подрядчиков МВ. Иными словами, МВ может стать зависимым от технологии другой компании, которая, в свою очередь, работает на Claude и подчиняется тем же условиям использования, ограничивающим массовую внутреннюю слежку и автономное летальное оружие (или, в понимании МВ, произвольным новым ограничениям, которые Anthropic может добавить в любой момент). Если к этому добавить, что администрация Трампа воспринимает Anthropic как своего политического врага (вероятно, они правы), получается ситуация, в которой военные вдруг осознают, что выстраивают зависимость от фирмы, которой не доверяют.
Рациональным ответом Министерства войны было бы расторгнуть контракт с Anthropic и чётко заявить публично, что подобные политические ограничения неприемлемы. Они также могли решить вышеупомянутую проблему субподряда с помощью различных инструментов, таких как:
- Выпуск рекомендаций, предписывающих подрядчикам избегать согласия с субподрядчиками на условия, представляющие собой политические/операционные ограничения в отличие от технических ограничений или ограничений ИС;
- Новая оговорка DFARS (Дополнение к Федеральному положению о закупках для обороны), специально касающаяся закупок ИИ-систем в секретных условиях, которая запрещает и головным подрядчикам устанавливать такие ограничения напрямую, и принимать их от субподрядчиков, с процедурой, требующей от субподрядчиков с несоответствующими условиями отказаться от них в установленный срок.
Это наименее ограничительные средства для достижения поставленной цели. Если бы Anthropic отказалась пойти на компромисс по своим красным линиям в отношении военного использования ИИ, реализация этих политик означала бы, что Anthropic была бы отстранена от работы с МВ или любыми его подрядчиками в рамках их секретной работы на МВ.
Но МВ поступило иначе. Вместо этого МВ настояло на том, что единственный разумный путь вперёд — контракты, разрешающие «любое законное использование» (упрощённое понятие, не соответствующее распространённым контрактным ограничениям, описанным выше), и далее пригрозило признать Anthropic «риском для цепочки поставок». Это полномочие зарезервировано исключительно для фирм, контролируемых интересами иностранных противников, таких как Huawei, и обычно означает, что признанная таковой фирма не может использоваться ни одним военным подрядчиком при выполнении военных контрактов.
Министр войны Пит Хегсет пошёл ещё дальше, заявив, что запретит всем военным подрядчикам иметь «любые коммерческие отношения» с Anthropic. У него почти наверняка нет таких полномочий, но буквальное прочтение этого означало бы, что Anthropic не сможет использовать ни облачные вычисления, ни покупать собственные чипы (поскольку все соответствующие компании работают с военными), а нескольким крупнейшим инвесторам Anthropic (NVIDIA, Google и Amazon) придётся выйти из капитала. По сути, министр войны Соединённых Штатов объявил о намерении совершить корпоративное убийство. То, что его выстрел вряд ли окажется смертельным (лишь очень кровавым), не меняет послания, адресованного каждому инвестору и корпорации в Америке: ведите бизнес на наших условиях, или мы прекратим ваш бизнес.
Это удар по фундаментальному принципу американской республики, который традиционно был особенно дорог консерваторам: частной собственности. Представьте, например, что военные обратились к Google и сказали: «мы хотим купить персонализированные мировые данные поиска Google и делать с ними что захотим, а если вы возразите, мы признаем вас риском для цепочки поставок». Не думаю, что они так поступят, но по принципу это ничем не отличается от послания, которое МВ транслирует сейчас. Частной собственности не существует. Если нам нужно использовать её для национальной безопасности, мы просто так и сделаем. Правительство не будет её напрямую «красть» — они компенсируют, — но вы не можете устанавливать условия, и вы не можете просто выйти из сделки, иначе вас объявят «риском для цепочки поставок», не говоря уже о других политических препятствиях, которые государство может вам подбросить.
Эта угроза теперь нависает над каждым, кто ведёт бизнес с правительством, — не только в том смысле, что вас могут признать риском для цепочки поставок, но и в том, что любая технология, которую вы используете, тоже может быть признана таковой. Хотя китайские ИИ-провайдеры вроде DeepSeek не были признаны рисками для цепочки поставок (да, серьёзно; это правительство говорит, что Anthropic — американская компания, чьи сервисы использовались в военных ударах буквально в прошлые выходные — представляет большую угрозу, чем китайская фирма, связанная с китайскими военными), эта имплицитная угроза всегда присутствовала.
Ни одна организация со значимыми связями с государственными контрактами не стала бы использовать DeepSeek просто потому, что регуляторный риск был слишком высок. Теперь, когда правительство применило это регулирование к американской компании, регуляторный риск существует для любого программного обеспечения. В каком-то смысле DeepSeek теперь несколько менее рискован в использовании (поскольку с регуляторной точки зрения он почти так же рискован, как любой американский ИИ), а американский ИИ стал значительно более рисковым, чем на прошлой неделе. Это, в сочетании с более широким политическим риском, который создало правительство, увеличит стоимость капитала для ИИ-индустрии. Проще говоря, это означает меньше ИИ-инфраструктуры и связанных мощностей по генерации энергии.
Если посмотреть ещё шире, это может в конечном счёте сделать ИИ менее жизнеспособным как прибыльную отрасль. Если корпорации и иностранные правительства просто не могут доверять тому, что правительство США может сделать с ведущими ИИ-компаниями, значит, они не могут полагаться на этот американский ИИ вообще. За рубежом это лишь усилит по большей части бессмысленное стремление к разработке собственных моделей в средних державах (о чём я писал на прошлой неделе), и мы, вероятно, можем считать Американскую программу экспорта ИИ (над которой я работал в администрации Трампа) мертворождённой.
Единственное, что могло бы смягчить эти самостоятельно нанесённые последствия, — если мы действительно переживаем стремительный «взлёт» к трансформационному ИИ. Есть вероятность, что в этом мире возможности ведущих американских ИИ-систем окажутся слишком значительными, чтобы корпорации или правительства от них отказались, и регуляторный риск будет того стоить. Я полагаю, что мы живём именно в таком мире, стоит это отметить. Но обдумайте следующее:
- Даже если я прав, что мы живём в мире «быстрого роста возможностей», внедрение американского ИИ всё равно будет восприниматься как особенно рискованное — уязвимость, которую необходимо исправить, как только появятся жизнеспособные альтернативы;
- Администрация Трампа не считает, что мы живём в таком мире, и полагает, что возможности ИИ вышли на плато примерно со времён GPT-5 прошлым летом. Таким образом, по логике администрации Трампа — где ИИ является «обычной» технологией — это был особенно неудачный шаг, на который у нас не было рычагов, поскольку ИИ вот-вот станет товаром массового потребления.
- Если мы действительно живём в этом мире, с другой стороны, администрация Трампа только что выступила врагом индустрии, которая вот-вот породит самую мощную технологию из когда-либо созданных — а также врагом самой технологии.
Словом, я вижу только минусы в решении администрации Трампа признать Anthropic риском для цепочки поставок, особенно учитывая гораздо менее затратные политические альтернативы, которые она могла бы задействовать. Складывается впечатление, что люди, принимающие эти решения в МВ, действуют без стратегической ясности и без какого-либо уважения к базовым принципам американской республики — не говоря уже о разительном противоречии с собственным заявленным видением президента Трампа о процветании ИИ в Америке.
V.
С каждой следующей президентской администрацией американская политика становится всё более непредсказуемой, бандитской, произвольной и капризной — постепенное сползание в безумие. Трудно определить, в какой момент упорядоченная свобода просто испаряется и мы погружаемся в мир чистого трайбализма.
Даже если министр Хегсет отступит и сузит свою чрезвычайно широкую угрозу в адрес Anthropic, огромный ущерб уже нанесён. Даже в самом узком варианте признания риском для цепочки поставок правительство всё равно заявило, что будет обращаться с вами как с иностранным противником — более того, в некоторых отношениях хуже, чем с иностранным противником — просто за отказ капитулировать перед их условиями бизнеса. Просто за наличие иных идей, выражение этих идей в речи и воплощение этой речи в решениях о том, как и где использовать свою собственность. Каждая из этих вещей фундаментальна для нашей республики, и каждая подверглась нападению — не впервые, но тем не менее новыми способами — со стороны Министерства войны на прошлой неделе. Большинству корпораций, политических деятелей и прочих придётся действовать, исходя из того, что отныне будет царить логика племени.
Есть и нечто более глубокое в ущербе, нанесённом правительством. Столкновение Anthropic с МВ — первая крупная публичная дискуссия, которая действительно касается вопроса о том, где должен быть надлежащий центр контроля над передовым ИИ. Наши государственные институты вели себя беспорядочно, злонамеренно и без стратегической ясности. Наши политические лидеры продемонстрировали мало понимания собственных действий, не говоря уже о технологии и её ставках. Они начали с исключительно неудачной позиции, и трудно представить, что они когда-либо выправятся, потому что, похоже, их не волнует улучшение. Они — карикатурное изображение американской политической элиты, но, к сожалению, их провалы были прототипом американских политических элит обеих партий на протяжении значительной части моей жизни. «То же, что и прежде, но теперь заметно хуже» — таков лейтмотив американской политики последних 20 лет.
Механизм нашей нынешней республики, похоже, настолько изношен, что трудно понять, как он продержится. Никто не знает, что будет дальше, но я убеждён, что это будущее будет глубоко переплетено с передовым ИИ и обеспечено им. Именно с его помощью мы перестроим наш мир. И когда мы это будем делать, и когда будут будущие дебаты о надлежащем центре контроля над передовым ИИ, я призываю вас не исходить из предположения, что «демократический» контроль — контроль «народа, народом и для народа» — синонимичен государственному контролю. Разрыв между этими локусами контроля существовал всегда, но сейчас он шире, чем когда-либо.
Какой бы мир мы ни строили, ограничения, установленные в законе на то, что мы сегодня знаем как использование ИИ «правительством», будут иметь первостепенное значение. Мы действительно хотим обеспечить, чтобы массовая слежка и автономное оружие/системы контроля не могли использоваться для ограничения наших свобод — по крайней мере, мы хотим попытаться. Поэтому, несмотря на то что это не в фокусе данного эссе, я аплодирую ИИ-лабораториям за то, что они заботятся об этих красных линиях. В ближайшие годы и десятилетия я ожидаю, что наша свобода окажется в большей опасности, чем многие из нас осознают.
Каждый из нас может выбрать, против какого будущего он хочет бороться, с каким может смириться и за какое будет сражаться. Делая свой выбор, я предлагаю игнорировать гул предсмертного хрипа и стараться мыслить независимо. Не пропускайте это через партийные шоры массовой политики XX века; так или иначе, вы входите в новую эру строительства институтов в реальном времени.
Но прежде чем перейти ко всему этому, уделите минуту тому, чтобы оплакать республику, которая была.
Подпишитесь на канал и каждый день читайте лучшие материалы про AI переведенные на русский!
Нашли интересную статью для перевода? Пришлите нашему боту: @ailongreadsbot