近年来,可用于心理健康护理和福祉目的的人工智能(AI)工具数量有所增加。这建立在一个蓬勃发展的数字健康领域之上,据报道,应用程序商店中有超过20,000个健康应用程序。这些应用程序不同于专门为英国国家医疗服务体系(NHS)开发的AI工具,也不同于那些从未打算用于心理健康护理的伴侣聊天机器人应用程序。本研究中确定的所有严重伤害案例均来自一般伴侣聊天机器人应用程序的意外使用。然而,所有AI工具在心理健康护理中的使用都存在伦理问题。
公共部门正在采取措施改善数据可用性,并支持证据生成和部署。英国和全球范围内多个政府机构正在进行协作,以应对由此带来的伦理挑战。这些建立在现有的大量法规和指导方针之上(具体内容见POSTnote)。
对于目前正在试验的工具、它们提供的机会以及交付时的考虑事项,详见PN737。
关键点
- 广泛试验和使用:AI工具在心理健康护理和福祉方面的试验和使用非常普遍。尽管它们提供了许多机会,但对其使用的伦理和监管问题仍然存在。英国和全球范围内的监管回应正在推进中。
- 伦理关切:包括对公众潜在危害、偏见延续、数据保护和隐私问题的关注,以及关于透明度、责任和责任归属的问题。
- 包容性和排斥性:对于AI和其他数字工具在服务用户中的包容性和排斥性,存在不同的看法。AI有可能排除某些服务用户,同时增加对其他人的可及性。
- 证据基础的质量:贡献者和证据表明,这些工具背后的证据基础质量需要改进。解决数据质量和可用性问题被认为是支持这一改进和有效部署的必要条件。
- 新型技术的挑战:最近开发的AI技术(特别是生成式AI)与以前的技术功能不同,因此带来了新的伦理和监管挑战。
(全文结束)