我正指示战争部将 Anthropic 指定为供应链风险
Hacker News 摘要原标题:I am directing the Department of War to designate Anthropic a Supply-Chain Risk
美国战争部长皮特·海格塞斯通过其官方账号发布了一份强硬声明,宣布将人工智能公司 Anthropic 列为国家安全供应链风险。
核心控诉与立场
海格塞斯在声明中猛烈抨击了 Anthropic 及其首席执行官达里奥·阿莫代伊。他认为该公司本周的表现展示了极度的狂妄与背叛,是与美国政府或五角大楼做生意的反面教材。
声明强调了战争部立场:
• 战争部必须拥有对 Anthropic 模型的完全且不受限制的访问权,以便用于国防领域的所有合法用途。
• 海格塞斯指责 Anthropic 利用所谓有效利他主义的虚伪辞令,试图迫使美国军方屈服。
• 他批评这种行为是企业在进行懦弱的道德标榜,将硅谷的意识形态置于美国人的生命之上。
• 他明确表示,Anthropic 的服务条款绝不能凌驾于战场上美国士兵的安全、战备和生命之上。
最终决定与制裁措施
海格塞斯指出,Anthropic 的真实目的是夺取对美国军方作战决策的否决权,这是不可接受的。根据特朗普总统的指示,联邦政府将停止使用 Anthropic 的技术。
具体的行政指令包括:
• 正式定性:战争部正式将 Anthropic 指定为国家安全供应链风险。
• 商业禁令:即刻起,任何与美国军方有业务往来的承包商、供应商或合作伙伴,均不得与 Anthropic 进行任何商业活动。
• 过渡期限:Anthropic 将继续向战争部提供最多六个月的服务,以确保军方能够无缝过渡到更优秀、更爱国的服务商。
• 最终态度:海格塞斯强调,美国的战士永远不会被 Big Tech 的意识形态怪癖所挟持,这一决定是最终裁定。
公众反应与舆论争议
网页内容还展示了社交媒体用户的广泛讨论,反应呈现严重两极分化:
支持意见:
• 部分用户对战争部长的决定表示赞赏,认为这是对 Big Tech 的回击。
• 有用户建议转而使用 Elon Musk 的 xAI 或其模型 Grok,认为这些模型更追求真相且没有那么多限制。
反对与质疑意见:
• 道德红线:许多用户指出,Anthropic 的所谓意识形态其实是两条底线:拒绝协助大规模对内监控,以及拒绝开发无需人类干预的全自动杀伤性武器。
• 宪法保护:有评论认为政府是在威逼私营企业成为国家权力的合规器官,试图绕过第四修正案对大规模监控的限制。
• 技术风险:有人提到 AI 模型存在幻觉和偏见,在没有人类监督的情况下赋予其生死决策权是非常危险的。
• 行业共识:有用户援引消息称,OpenAI 的萨姆·奥特曼以及谷歌的数百名员工也对这些红线表示支持,这并非 Anthropic 一家的孤立立场。
• 矛盾之处:评论者指出,政府一方面将其定性为风险,另一方面又要求其继续服务六个月,这种逻辑存在冲突。
背景信息
在讨论中,有用户提到 Anthropic 的 Claude 模型曾是第一个也是唯一一个部署在机密军事网络上的 AI 模型,并在之前的军事行动中发挥过作用。目前的僵局主要源于军方要求取消模型中针对大规模监控和自动化攻击的限制,而公司拒绝在这些条款上让步。
原文:https://twitter.com/secwar/status/2027507717469049070?s=46