在对人工智能的信任度较低的情况下,前白宫科技政策办公室代理主任周二在 LBJ 公共事务学院的人工智能研讨会上表示,政府官员必须调整他们的政策和法律,以使国家更好地应对。
在“人工智能时代的政策领导力”小组讨论中,从不同背景探讨了人工智能与法律的关系,并以普林斯顿大学社会科学教授、前总统乔·拜登的副助理阿隆德拉·纳尔逊(Alondra Nelson)的主题演讲结束。
纳尔逊首先谈到了人工智能引发的担忧,例如其在生物武器方面的潜在参与以及对儿童的潜在危害。她说,包括美国在内的西方民主国家对人工智能的信任度最低。
“我们如何从这种状况走向更好的境地——走向有益的人工智能——通常是通过政策来实现的,”纳尔逊说。
纳尔逊说,拜登政府 2023 年关于人工智能的行政命令涵盖了“从劳动力到医疗保健再到国家安全的一切”。她说,该命令是去年内人工智能政策“爆发”的一部分。最近,联合国于 9 月 19 日创建了《为人类治理人工智能报告》,纳尔逊作为联合国人工智能咨询机构的一员为此做出了贡献。
纳尔逊说,人工智能是私营部门产生的第一项变革性技术,并谈到了将适应作为人工智能政策的一种方法。她说,人们应该认识到影响人工智能的现有法律,但也可能需要制定新的法律和标准来管理人工智能。
“管理人工智能需要两者兼顾,我们要回归基本原则……(并且)我们需要认识到可能需要新的法律、规则、规范等来构建这种新的治理结构,”纳尔逊说。
纳尔逊提出了白宫的《人工智能权利法案蓝图》,其中包括安全有效的人工智能模型、免受歧视的保护、数据隐私、人工智能使用的沟通以及人工替代方案,作为人工智能治理的一个例子。纳尔逊作为科技办公室代理主任监督的该提案还提供了遵守其原则的最佳实践。
“我们不必创建一整套新的法律,”纳尔逊说。“如果我们以那些基本原则为基础——例如,在医疗保健环境中人们不应受到歧视……(那么)这些都是真的。”


