文章作者、来源:AIBase
Anthropic此前宣称Mythos拥有发现数千个安全漏洞的能力,并因此启动了 Project Glasswing 计划,仅限谷歌、微软等巨头小范围使用。然而,Tomshardware 的研究戳破了这一泡沫:
外推幻觉: 所谓的“数千个漏洞”并非全部经过核实,而是基于仅198份人工审计报告中90% 的准确率进行的数学外推。
严重性存疑: 在针对7000个开源软件堆栈的实测中,Mythos发现的600个漏洞中,经核实属于严重级别的仅有 约10个。
价值有限: 大量被标记的问题实际上是陈旧软件的功能缺陷,在现代防御机制下几乎无法被利用,增加了安全人员筛选“噪音”的负担。
Anthropic曾以“模型太强、恐冲击全球安全”为由,表示暂不向公众开放。但业内分析给出了更现实的解释:
高昂成本: 尽管官方口头上“禁售”,但该模型已在亚马逊和微软的云平台悄然上线,只是因运行成本极高导致价格极其昂贵。
营销噱头: 这种“先造神、再限制”的策略,被指是利用公众对 AI 风险的恐惧进行营销,与 OpenAI 的奥特曼兜售“AGI 威胁论”如出一辙。
尽管Anthropic的编程模型一度被公认为业界最强,但近期其表现并不平稳:
降智吐槽: 社区近期频繁出现关于Claude模型“降智”的反馈,口碑出现波动。
存在感焦虑: 频繁传播“AI 产生自我意识”等言论,被认为是在激烈的行业竞争中通过制造恐慌来刷存在感。
当 Claude Mythos 发现27年未见漏洞的传奇被拆解为数据外推,我们或许更应该关注 AI 的实际工程价值,而非其被刻意包装出来的“毁灭力”。在算法与人类安全的博弈中,真实的透明度远比耸人听闻的数字更重要。


