在 19 世纪,无数人因服用江湖骗子售卖的不安全药物而丧生,而在欧美,这促使食品和药品安全法律及相关机构(包括美国食品药品监督管理局)逐步建立,以确保药品益处大于危害。如今,像 GPT-4 这样的人工智能大型语言模型正在推动各行业发展,带来巨大好处的同时也带来了严重的国家安全风险。就像新药上市前需要经过全面的安全性和有效性测试一样,人工智能也不应例外,政府应当强制进行人工智能安全测试。英国前首相里希·苏纳克领导的政府在这方面值得称赞,在其上任一年后,英国举办了具有变革意义的布莱切利公园人工智能安全峰会,成立了资金相对充足的人工智能安全研究所,并对五个领先的大型语言模型进行了筛选。美国、新加坡、加拿大和日本等国正在效仿英国,但这些努力仍处于初级阶段。OpenAI 和 Anthropic 自愿允许美英测试其模型,值得称赞。目前在人工智能安全方面最明显的差距是缺乏强制性、独立和严格的测试以防止其造成危害,此类测试应仅适用于最大的模型,并在向公众发布前进行。人工智能安全研究所的技术团队能够在几周内进行有针对性的测试,因此安全测试不会显著减缓创新。测试应特别关注模型可能造成的有形、物理伤害,例如其协助制造生物或化学武器以及破坏网络防御的能力,还要评估模型是否难以被人类控制以及是否能够突破旨在限制它的安全功能。2024 年 2 月发现,为中国、俄罗斯、朝鲜和伊朗工作的黑客利用 OpenAI 的技术进行了新型网络攻击。虽然道德和偏见也是关键问题,但社会对此的分歧较大,因此测试应首先关注人工智能对国家安全和人类的物理伤害。一旦通过初始测试,人工智能公司应像制药公司一样密切持续监测模型的可能滥用情况并立即报告。对于配合的公司,应给予“安全港”以减轻其部分法律责任。加州正在为此铺平道路,上个月该州立法机构通过了一项法案,要求人工智能开发者创建安全协议以减轻“重大危害”。几十年来,制药行业强有力的报告和测试要求使得药物得以负责任地推进,帮助而非伤害人类。同样,虽然英国的人工智能安全研究所等是重要的第一步,但为了充分受益于人工智能,我们需要立即采取具体行动来创建和执行安全标准,以免模型在现实世界中造成危害。


