人工智能有多可信?How trustworthy is AI?

环球医讯 / AI与医疗健康来源:techxplore.com美国 - 英语2025-08-23 16:24:24 - 阅读时长3分钟 - 1200字
本文通过加州大学圣地亚哥分校两位专家的视角,探讨了人工智能的可信度问题。内容涵盖AI的核心定义、社会影响、可解释性挑战、医疗应用前景等关键议题,强调了透明性、鲁棒性和伦理责任对构建可信AI的重要性,并警示需警惕隐藏在日常应用中的AI风险。
人工智能可信AI医疗AI可解释性鲁棒性社会影响人类认知人际互动医疗诊断可靠性负责任的AI发展
人工智能有多可信?

人工智能无处不在——撰写邮件、推荐电影甚至驾驶汽车——但那些不为人知的AI呢?幕后开发这些算法的主体是谁(或什么)?这些系统是否值得信赖?

我们采访了隶属于计算、信息与数据科学学院(SCIDS)的Halıcıoğlu数据科学研究所的两位专家,探讨人工智能的未来方向、挑战与局限性。

数据科学、哲学与政策教授David Danks(MA '99, Ph.D. '01)不仅研究AI系统的构建方式,更关注其对社会的塑造作用。实验室负责人Lily Weng副教授则专注于可信机器学习,确保AI系统具备鲁棒性、可靠性、可解释性和可信度。

您如何定义AI的根本特征?

Danks:AI是取代、增强或扩展人类认知劳动的系统。就像机器替代体力劳动一样,AI协助或改进我们的思维任务。我强调以人为本的视角——关注AI使我们能实现什么。

Weng:它应是不同于人类运作方式但旨在辅助人类的系统。让AI更聪明或高效只是过程,核心目标是服务人类。

随着AI日益渗透日常生活,您最惊讶的是什么?

Danks:人们愿意尝试这些系统的程度令人意外。虽然实验不等于持续使用或信任系统,但低风险场景下人们表现出显著的交互意愿。这凸显了当前多数系统尚未达到应有可信度的现状。

"负责任的AI"应如何定位?

Weng:我们需要可解释的AI系统。例如,它应能说明决策逻辑,便于监测偏见和潜在风险。鲁棒性同样关键——不应受噪声干扰或被对手操控,需遵循预设原则。

在快速发展的AI领域,哪些问题需要重点关注?

Weng:我们实验室专注AI的不透明性。深度学习系统架构复杂,即使测试有效,仍存在大量意外错误场景。我们致力于提升系统的可解释性。

Danks:我更多思考那些隐蔽的AI应用。当驾驶现代汽车时(本质上是轮子上的计算机),制造商在引擎控制、数据监控等方面部署了多少AI?这些数据可能被用于保险定价却不为人知。当AI潜藏风险时,我们甚至可能无法察觉损害的发生。

新成立的SCIDS学院将如何应对这些挑战?

Danks:该学院打破基础研究与商业应用的壁垒,使Halıcıoğlu研究所的前沿研究能经由圣地亚哥超算中心实现社会影响。这种转化过程要求我们必须以负责任的方式推进AI发展。

有哪些领域是AI永远无法替代的?

Danks:需要情感或共情的人际互动任务,AI只能模拟而难以建立长期情感连接。此外,在目标模糊的情境中,AI系统难以有效决策,因为它们依赖已明确定义的成功标准。

您对AI未来最期待的是什么?

Weng:医疗AI潜力巨大。通过提升诊断可靠性(特别是在可解释性方面),我们正在构建值得信赖的医疗AI系统。这需要比聊天机器人更高的安全标准。

对读者的最终寄语?

Danks:不应将AI视为不可控的飓风,而应认识到它是人类共同构建的未来。我们拥有能力也有责任引导其发展轨迹,这既是挑战更是机遇。

【全文结束】

大健康
大健康