随着人工智能的应用不断触及我们生活的方方面面,医疗保健通常被认为是可能给人类带来最大利益的领域。在巴基斯坦,健康与人工智能的交叉点已经引起了多个团体的关注,其中经常讨论的一个应用领域就是心理健康。
有一些初创企业正在探索可能性,以改善诊断和护理效率,而这一领域在国家健康版图中很大程度上被忽视了。这些人工智能心理健康初创企业中的大多数都将自己的想法宣传为对社会经济地位低下和服务不足社区的变革者。
虽然有很多重要且紧迫的原因需要关注心理健康,包括意识有限、污名化以及训练有素和有执照的提供者稀缺,但在人工智能健康领域也存在令人深感不安的趋势,这可能会伤害无数资源有限、因社会地位边缘化且一旦出现问题不太可能获得公正对待的弱势人群。
当我又听说一个本地初创企业(由对卫生系统知之甚少的人经营)使用大型语言模型或聊天机器人来诊断焦虑、双相障碍、抑郁或其他心理健康状况时,我深感不安,因为缺乏对伦理、背景或对弱势群体影响的严肃讨论。
首先,我们必须认识到,那些与心理健康问题作斗争的人是有着复杂问题的弱势人群。他们所需的护理不仅需要对其状况有细致的理解,还需要与提供者建立信任关系。这种同理心和信任是长期护理的核心,而这种独特的社会和文化背景是无法被编码进模型中的。即使你不是哲学家或生物伦理学家,也能认识到聊天机器人永远无法提供专业医疗提供者所具有的深层同理心。
其次,基于人工智能的诊断出现医疗错误并不像健康科技企业家希望我们相信的那样罕见。这些错误既常见又严重,尤其是在处理心理健康患者时更令人担忧。在巴基斯坦这样的环境中,患者的安全网很少,这些错误可能会带来改变人生的后果。想象一个穷人因机器人或人工智能诊断平台而受到负面影响:这个人去哪里寻求正义?什么保护措施能保护他或她?认为没有安全网或监管(无论有没有人工智能)就不是放慢脚步、反思并确保我们创造更多安全网的原因。相反,这应该是一个原因去暂停、反思并确保我们创造更多的安全网,而不是更少。
第三,算法中的偏见问题不能简单地被忽略。许多算法所依赖的模型是使用高收入国家的数据开发的,那里的背景与我们的背景有很大不同。因此,对于我们社区所面临情况的诊断能力将显著受限,并可能导致严重伤害。
第四,数据隐私问题同样严重,尤其是当涉及到弱势群体时。再次,我们必须思考目前不存在的保护措施。例如,边缘化群体(因为他们的宗教、种族、教派或性别)的数据是否可能被用来对付他们?我们如何确保他们的信息不会被武器化?我们有什么保护措施来确保数据安全、受保护,并且远离那些有权力且可能不关心他们福利的个人和机构?
作为一名在生物医学工程系任教的人,我知道技术令人兴奋且发展迅速,并提供了非凡的前景。但如果没有严肃的伦理考虑、关怀和保护社会最弱势成员的有意识努力,这种前景往往只为少数人实现。其他人则成为失败的统计数据。
这条道路对我们所有人来说都应该是不可接受的——不是因为我们天生就讨厌创新,而是因为以进步的名义伤害任何人这一想法本身就应该是令人震惊的。
【全文结束】


