Anthropic的Claude Mythos预览版已在美国及全球范围内引发对AI安全的担忧。相关讨论已从华尔街和华盛顿特区蔓延至欧洲的金融机构。Anthropic表示,由于该模型似乎具备自主发现未知网络安全漏洞的能力,公司决定暂缓向公众发布。
AI已演变为某种"潘多拉魔盒"。其影响能够以惊人速度扩散,因为其输出内容具有自动化、可复制和易扩展的特性。这并不意味着AI等同于核武器,但它确实构成了系统级风险。一旦高能力模型被广泛获取,滥用行为将迅速蔓延至各行业和机构。
然而商业压力可能正快于治理进程。主要AI公司安全能力的削弱已引发关注。今年早些时候OpenAI reportedly解散其使命对齐团队,以及2024年解散专职AI安全团队的举动,几乎如同骑马不勒缰绳。当安全功能随模型能力增长而缩减时,技术将更易遭受恶意利用。公众的焦虑情绪实属自然。
Project Glasswing
为降低网络安全风险,Anthropic启动了Project Glasswing。这是由亚马逊网络服务、Anthropic、苹果、博通、思科、CrowdStrike、谷歌、摩根大通、Linux基金会、微软、英伟达和Palo Alto Networks共同参与的协调漏洞披露计划。其目标是让主要基础设施提供商利用该模型的预测能力,发现云系统弱点并修补关键软件漏洞。此举旨在模型或类似对抗性系统进入更广泛且监管不足的公共领域前解决问题。这标志着行业优先事项的转变:AI竞赛不再仅关乎能力,更关乎谁能保障这些能力可能威胁的系统安全。
跨行业影响
随着AI能力提升,各行业风险同步上升。在金融领域,具备Mythos级推理能力的模型可能协助模拟或实施复杂市场操纵、规避欺诈检测,或自动发现机构弱点。在制造业和商业领域,高级AI可能识别并利用供应链瓶颈,造成大规模延迟、中断或盗窃。在高校和研究机构,威胁已延伸至专有研究数据、内部网络,以及针对管理人员和教师的AI辅助社会工程攻击。
当AI成为生产力的通用工具时,它同时也成为破坏的通用工具。赋予其商业价值的灵活性,也使其高度适应恶意用途。
医疗与数据完整性危机
本月发布的《2026年斯坦福AI指数报告》强调了AI在医疗领域的采用率急剧上升,指出临床文档、医学影像和诊断推理方面的AI应用显著增加。这种增长或可提升效率,但若部署不当,也将扩大公共卫生的攻击面。
若Mythos级模型被用于篡改医疗数据库、操纵诊断系统或生成不准确的药理指导,其危害将远超普通数据泄露,直接威胁患者安全。随着医疗系统日益依赖AI中介的工作流程,对抗性医疗的可能性愈发不容忽视。在此情境下,不良行为者可能操纵AI输出造成伤害、制造混乱或勒索医院。因此,身份验证和访问控制已不再是可选障碍,而成为核心基础设施。
不可避免的身份验证
高能力模型可能引发此类危害的现实,正加速强制身份验证的普及。Anthropic现要求寻求访问某些高风险功能的用户提交政府签发的身份证明及生物识别活体自拍照。公司将此定位为平台完整性问题,主张负责任地使用强大技术始于明确使用者身份。为缓解隐私担忧,Anthropic表示验证数据既不用于训练模型,也不与第三方共享用于营销或广告。
对AI使用实施实体身份检查可能显著改变用户体验,但这实际延续了更早的行业实践。多年来,科技公司一直依赖被动验证形式:Gemini的谷歌登录、互联网服务注册,以及与电子邮件账户、设备和数字购买相关的元数据,早已提供密集的身份信号。这些系统长期支持公共安全功能和商业变现。高级AI模型的显式身份检查正式化了这一轨迹,推动行业从后台识别转向前台化的银行级身份验证。
缺失的公共角色
Anthropic的Project Glasswing汇集了主要云提供商和网络安全公司,但尚未显著纳入公共机构或政策制定者。
这一缺口至关重要。创新对经济竞争力至关重要,但安全仍是持久增长的前提。政府曾为网络安全和数据隐私建立法律框架,现在需要更新AI安全法规及监管机制,以匹配新模型的能力。若无此公共框架,过多责任将落在私营企业肩上,而其激励机制并不总与公共利益一致。真正的挑战在于:制度能否在技术超越现有控制前,足够迅速地实现有效治理?
【全文结束】

