人工智能无处不在——撰写邮件、推荐电影甚至驾驶汽车——但那些不为人知的AI呢?幕后开发这些算法的主体是谁(或什么)?这些系统是否值得信赖?
我们采访了隶属于计算、信息与数据科学学院(SCIDS)的Halıcıoğlu数据科学研究所的两位专家,探讨人工智能的未来方向、挑战与局限性。
数据科学、哲学与政策教授David Danks(MA '99, Ph.D. '01)不仅研究AI系统的构建方式,更关注其对社会的塑造作用。实验室负责人Lily Weng副教授则专注于可信机器学习,确保AI系统具备鲁棒性、可靠性、可解释性和可信度。
您如何定义AI的根本特征?
Danks:AI是取代、增强或扩展人类认知劳动的系统。就像机器替代体力劳动一样,AI协助或改进我们的思维任务。我强调以人为本的视角——关注AI使我们能实现什么。
Weng:它应是不同于人类运作方式但旨在辅助人类的系统。让AI更聪明或高效只是过程,核心目标是服务人类。
随着AI日益渗透日常生活,您最惊讶的是什么?
Danks:人们愿意尝试这些系统的程度令人意外。虽然实验不等于持续使用或信任系统,但低风险场景下人们表现出显著的交互意愿。这凸显了当前多数系统尚未达到应有可信度的现状。
"负责任的AI"应如何定位?
Weng:我们需要可解释的AI系统。例如,它应能说明决策逻辑,便于监测偏见和潜在风险。鲁棒性同样关键——不应受噪声干扰或被对手操控,需遵循预设原则。
在快速发展的AI领域,哪些问题需要重点关注?
Weng:我们实验室专注AI的不透明性。深度学习系统架构复杂,即使测试有效,仍存在大量意外错误场景。我们致力于提升系统的可解释性。
Danks:我更多思考那些隐蔽的AI应用。当驾驶现代汽车时(本质上是轮子上的计算机),制造商在引擎控制、数据监控等方面部署了多少AI?这些数据可能被用于保险定价却不为人知。当AI潜藏风险时,我们甚至可能无法察觉损害的发生。
新成立的SCIDS学院将如何应对这些挑战?
Danks:该学院打破基础研究与商业应用的壁垒,使Halıcıoğlu研究所的前沿研究能经由圣地亚哥超算中心实现社会影响。这种转化过程要求我们必须以负责任的方式推进AI发展。
有哪些领域是AI永远无法替代的?
Danks:需要情感或共情的人际互动任务,AI只能模拟而难以建立长期情感连接。此外,在目标模糊的情境中,AI系统难以有效决策,因为它们依赖已明确定义的成功标准。
您对AI未来最期待的是什么?
Weng:医疗AI潜力巨大。通过提升诊断可靠性(特别是在可解释性方面),我们正在构建值得信赖的医疗AI系统。这需要比聊天机器人更高的安全标准。
对读者的最终寄语?
Danks:不应将AI视为不可控的飓风,而应认识到它是人类共同构建的未来。我们拥有能力也有责任引导其发展轨迹,这既是挑战更是机遇。
【全文结束】


