没见过Anthropic这么虚伪的

日期:2026-03-04 13:27:45 / 人气:3


当Anthropic CEO Dario Amodei一边高举“安全”大旗,一边被曝出数据违规、双标版权、封禁对手的“骚操作”,当他的言论在“维护行业秩序”与“服务商业利益”间反复横跳,我们终于看清一个事实:某些科技精英的“道德表演”,早已超越了普通公关话术的范畴,成了赤裸裸的虚伪游戏。  

一、安全大旗下的“数据黑箱”

Dario最擅长的,是把“安全”包装成绝对正确的政治正确,却对自家数据操作讳莫如深。  

他公开批评DeepSeek、月之暗面等公司对Claude的“蒸馏攻击”,将其定性为“非法窃取”甚至“危害国家安全”。但吊诡的是,Anthropic官方文件却自曝:他们记录了所有用户请求、元数据、硬件特征,并与其他厂商交叉共享。  

矛盾点:蒸馏技术是行业通用的模型优化手段(如用大模型输出训练小模型),合理且合法;而Anthropic的用户数据记录与共享,却可能违反GDPR(欧盟通用数据保护条例)。一边扣别人“违法”帽子,一边自己踩法律红线,这种双标,比技术争议更刺眼。  

更讽刺的是,Dario在专访中强调“安全理念”是离开OpenAI的主因,而所谓“安全”,竟是“记录所有用户元数据并交叉共享”。这哪是“安全”,分明是“数据垄断”的遮羞布。  

二、版权指控里的“贼喊捉贼”

Anthropic的另一个“经典双标”,藏在版权争议的戏码里。  

早在模型训练早期,Anthropic就被曝大规模从盗版网站下载受版权保护的书籍用于训练数据,最终被迫与作家集体达成15亿美元和解。但当它指责他人“未经授权使用模型输出、侵犯权利”时,路过的龙虾都要笑出声——自己靠盗版数据起家,却理直气壮地当“版权卫士”,这逻辑比“小偷骂别人偷锁”更荒诞。  

这种“贼喊捉贼”的戏码,暴露的不仅是商业伦理的缺失,更是对“规则”的实用主义态度:规则是工具,能用来打击对手时就高举,能用来掩盖自身问题时就无视。  

三、“反权力集中”的黑色幽默

Dario多次公开表达对“权力集中”的不安,主张用“长期技术禁令(LTBT)”和政府监管来制衡。但明眼人都看得出,这番“忧国忧民”的表演,藏着精致的利己算计。  

当监管成本极高时,小公司会被自然挤出市场,大公司却能凭借资源优势“合规”存活——这是经济学里的“监管俘获”(regulatory capture)。Anthropic作为头部模型商,恰恰能从这种“高门槛监管”中受益:对手被淘汰,自己垄断市场。  

更讽刺的是,上周川普政府刚在美政府系统禁用Claude,而Anthropic此前还标榜“对中一致强硬”。这种“里外不是人”的结局,像极了它的“反权力”表演——口号喊得震天响,实际却在权力游戏中左支右绌,连最基本的“用户信任”都丢了。  

四、从“技术理想”到“人设崩塌”

Dario的虚伪,本质是将“技术理想”异化为“人设工具”。  

他曾在2019年推动OpenAI重视scaling laws(模型规模定律),却在安全理念分歧后离开,创办Anthropic;2022年ChatGPT发布前,他手握Claude早期版本却选择“不发布以避免军备竞赛”——听起来像“为人类克制欲望的技术圣人”。但事实可能是:他预判当时的技术成熟度不足以支撑产品,或等待更有利的商业时机,“避免军备竞赛”不过是掩盖战略犹豫的漂亮话。  

当用户发现,所谓“安全”“公平”“反权力”不过是服务于商业利益的修辞,所谓的“CEO人设”就成了笑话。正如网友调侃:“出门在外,身份是自己给的,别轻易信企业家的话——包括我这种小自媒体。”  

结语:虚伪的不是一个人,是资本的游戏规则

Dario的虚伪,不是个案,而是AI行业“资本-权力-话语”游戏的缩影。当技术精英把“道德”当公关素材,把“规则”当竞争武器,当“安全”沦为数据垄断的遮羞布,我们看到的,是科技理想主义在资本洪流中的溃败。  

幸好,Claude Code的“好用”暂时留住了一些开发者,但技术口碑的崩塌,比产品功能的落后更致命。至于Dario在百度实习的“未解之谜”,或许某天会像回旋镖一样,再飞回他自己身上。  

毕竟,互联网上的角色扮演,终有谢幕的一天。

作者:恒达娱乐




现在致电 5243865 OR 查看更多联系方式 →

COPYRIGHT 恒达娱乐 版权所有