卡内基梅隆大学的一位教授专门研究负责任的人工智能(AI)和生成式人工智能,讨论了它们在医疗保健中的重要性以及如何结合这两种技术,尽管这可能很复杂。
比尔·西维基
2024年10月2日 11:16
安南德·拉奥(Anand Rao)是卡内基梅隆大学海因茨学院的服务教授。他是负责任的人工智能、人工智能经济学和生成式人工智能方面的专家。在他的35年咨询和学术生涯中,他专注于数据、分析和人工智能的创新、业务和社会应用。
此前,拉奥曾在咨询巨头普华永道担任全球人工智能负责人,是该公司数据、分析和人工智能实践的合伙人,并担任普华永道产品和技术部门的人工智能创新负责人。
我们采访了拉奥,讨论了负责任的人工智能、如何在医疗保健中应用负责任的人工智能、如何将负责任的人工智能与生成式人工智能相结合,以及社会在采用负责任的人工智能时必须了解的内容。
问:请从您的角度来看,定义什么是负责任的人工智能。
答: 负责的人工智能是指安全、可靠、保护隐私或增强隐私、透明、可问责、可解释、可解释、意识到偏见并且公平的研究、设计、开发和部署人工智能。这可以被视为三个连续的层次:
- 安全可靠的人工智能。这是最低标准,即“人工智能不造成伤害”。它包括不造成身体或情感伤害、按需提供事实信息,并且能够抵御对抗性攻击。
- 可信赖的人工智能。这是下一个层次,即“人工智能做好事”。它包括可问责、可解释和可解释的人工智能。它既包括构建人工智能系统,也包括治理人工智能系统。
- 有益的人工智能。这是最高层次,即“人工智能为所有人做好事”。它包括意识到偏见并且以至少一个或多个公平维度的方式构建的人工智能。
问:负责任的人工智能应如何应用于医疗保健?医疗保健是一个与其他行业非常不同的行业。生命常常处于危险之中。
答: 鉴于医疗保健的高风险,负责任的人工智能必须主要用于增强人类决策,而不是替代人类任务或决策。“人在环路”必须是大多数,如果不是所有的话,医疗保健人工智能部署的基本特征。
此外,医疗保健人工智能系统必须遵守现有的隐私法律,在大规模部署之前,必须使用最新的技术进行彻底的测试、评估、验证和验证。
问:生成式人工智能是您的专长之一。您如何将负责任的人工智能具体与生成式人工智能结合起来?
答: 当涉及到生成式人工智能时,它带来了更强大和复杂的技技术,可能会比传统人工智能造成更大的危害。生成式人工智能可能会产生错误的结果,并带有自信的语气。它可能会产生有害和有毒的语言,并且更难解释或推理。因此,生成式人工智能的负责任人工智能必须考虑更广泛的治理和监督,以及在不同情境下的严格测试。
问:您关注的一个领域是人工智能的社会应用。社会在采用负责任的人工智能时,特别是在人们去看医生时,必须了解什么?
答: 随着生成式人工智能的广泛应用,公众越来越多地使用生成式人工智能来获取医疗建议。鉴于很难确定生成式人工智能何时正确或何时错误,患者或护理人员如果没有与临床医生核实,可能会产生灾难性的后果。教育公众和护理人员关于生成式人工智能的负面影响对于确保其负责任的使用至关重要。
(全文结束)


