TMGM市场分析

分享全球最新资讯,掌控交易动态!

TMGM官网:奥特曼承认与美军签约“太草率”,OpenAI急改合同严禁模型用于国内监视

2026年3月初,一场由AI军事化合作引发的舆论风暴,正在硅谷乃至全球用户间迅速蔓延。在竞争对手Anthropic因拒绝放宽军事应用红线而被美国政府“封杀”数小时后,OpenAI火速与五角大楼达成协议,将其大模型部署于军方机密网络。这一被质疑“投机取巧”的决策,随即引爆了用户的强烈反弹——一场“取消ChatGPT”(Cancel ChatGPT)的抵制运动在社交网络上迅速发酵,超过70万用户卸载或取消订阅。面对汹涌民意,OpenAI首席执行官山姆·奥特曼(Sam Altman)罕见公开认错,承认签约“太草率”,并紧急修订合同,明确禁止将AI系统用于针对美国公民的国内监视

火线签约引发信任危机,卸载量激增三倍

事件的导火索始于2月28日。就在美国政府下令所有联邦机构停止使用竞争对手Anthropic的工具,并将其列为“供应链威胁”后不久,OpenAI宣布与美国国防部(特朗普政府已将其更名为“战争部”)达成协议,将其人工智能模型部署于五角大楼的机密网络

这一时间节点的巧合,迅速在用户群体中引发了强烈质疑。据美国移动应用数据分析公司Sensor Tower的数据显示,消息公布的当天,美国地区ChatGPT移动应用程序的卸载量较前一日激增295%,而下载量则环比下降了13%。社交网络上,“取消ChatGPT订阅”的声浪迅速蔓延,一场抵制运动在短时间内吸引了超过70万用户参与,许多人转而投向坚守底线的Anthropic旗下产品Claude。数据显示,Claude在2月28日登上了美国App Store榜首,免费用户数量较1月增加超过60%

奥特曼认错:显得“投机取巧且草率”

面对汹涌的舆论压力,奥特曼于3月2日在X平台(原推特)上接连发文,态度出现显著转折。

“我们不应该在周五仓促推出这份合同,”奥特曼坦言,“这些问题极其复杂,需要清晰的沟通。我们当时确实是在努力缓和局势,避免更糟糕的结果,但我认为这看起来既投机取巧又草率。这对我来说是一次很好的学习经历。”

奥特曼承认,公司在签约过程中犯了错误,并宣布将与美国国防部合作,对协议进行紧急修订。他强调,尽管初衷是好的,但在处理涉及伦理底线的复杂议题时,沟通的仓促与模糊引发了公众的误解与不信任

紧急修约:明确划定“国内监视”红线

根据奥特曼及OpenAI官方披露的信息,修订后的合同将增加一系列具有约束力的明确条款,核心目标是防止技术被滥用。

其中最关键的补充条款明确:人工智能系统不得被蓄意用于对美国公民或国民的国内监视。根据适用法律,包括美国宪法第四修正案、1947年《国家安全法》和1978年《外国情报监视法》,该条款明确禁止“故意追踪、监视或监控”美国公民,包括通过采购或使用商业渠道获取的个人或可识别信息

与此同时,OpenAI获得了国防部的确认:其下属情报机构(如美国国家安全局NSA)不会使用OpenAI的服务。如果未来需要向这些情报机构提供服务,必须对现有合同进行后续修改,重新谈判

奥特曼表示,OpenAI将通过技术保障措施确保模型按预期运行,仅通过云端部署而非直接安装于军事硬件,并由获得安全许可的OpenAI人员全程参与监督。他强调:“我们希望通过民主程序来进行工作,政府应该对社会做出关键决策,我们希望拥有发言权。”

行业对比:Anthropic的坚守与代价

OpenAI此次的公关危机,与其竞争对手Anthropic的处境形成了鲜明对比。

据知情人士透露,在与五角大楼的谈判中,Anthropic首席执行官Dario Amodei划定了两条无法妥协的红线:禁止将AI模型用于国内大规模监控,以及禁止用于致命性自主武器。当五角大楼要求模型可供“所有合法用途”使用时,Anthropic坚持必须在合同中写入明确的保障条款,最终导致谈判破裂

谈判破裂后,特朗普政府迅速采取报复行动。美国财政部、联邦住房金融局等机构随即宣布终止与Anthropic的合同。然而,这种“坚守底线”的姿态,却在消费市场为其赢得了口碑与用户。数据显示,Anthropic旗下Claude在美国的下载量在2月27日环比增长37%,并在2月28日进一步增长51%。有专家指出,Anthropic的选择表明,在商业利益与伦理底线之间,部分企业仍愿意通过让步来维持原则的清晰

军方合作与公众信任的艰难平衡

对OpenAI而言,拓展政府军工订单无疑是商业化进程中的重要一步。在算力成本高昂、C端增长面临挑战的当下,国防预算意味着稳定的资金流与算力支撑。公司最初在签约时也曾强调,协议包含“迄今任何机密AI部署协议中最严格的护栏”,并设定了三条红线:禁止大规模国内监控、禁止指挥自主武器系统、禁止高风险自动化决策

然而,当服务对象变为军方,书面的合规边界在实际落地中往往难以被精准界定。前OpenAI地缘政治团队负责人Sarah Shoker指出,自2021年以来,头部AI公司的军事政策语言一直在趋向模糊化,以保留合作的灵活性。此次OpenAI面临的信任危机,正是这种商业选择与公众期待之间矛盾的集中爆发。

有分析认为,AI赛道的切换成本极低——用户从卸载ChatGPT到安装替代品几乎没有门槛。当C端消费者对数据隐私和中立性高度敏感时,企业若未能将“大众应用”与“军方合作”进行明确的物理与品牌隔离,不仅可能引发消费者的抵触情绪,也会实质性增加其在全球市场的合规成本

结语:伦理底线成为新的竞争维度

2026年3月这场由一份军方合同引发的风波,清晰地折射出AI行业在技术能力跃升后必须面对的深层命题:当头部企业不可避免地进入复杂的政商协作网络,如何在商业利益与公众信任之间找到平衡?

奥特曼的公开认错与紧急修约,是OpenAI在危机面前的快速止损,但也暴露了其内部决策机制与伦理沟通的短板。而Anthropic通过商业让步维持伦理边界清晰的路径,则为其在部分消费者眼中建立了更高的信任度。正如市场观察者所言,技术优势固然重要,但公众对品牌伦理底线的认知,正成为AI赛道维持长期竞争力的关键变量。在这场由国防大单引发的信任博弈中,谁能在复杂博弈中守住底线,谁才有可能赢得未来的主动权。

Share the Post: