医学中的人工智能(AI)的应用可能威胁到患者做出个性化决策的能力。马克斯·普朗克社会法和社会政策研究所的科学家Christian Günther博士的新研究表明,法律可以通过针对这一威胁制定法规来保护患者的自主权。该研究使用了来自英国和加利福尼亚的案例,分析了法律如何应对这一挑战。
法律学者得出结论认为,法律具有积极的动态特性,可以很好地应对创新,甚至比非法律监管方法更为有效。“与普遍的观点相反,法律并不是阻碍创新技术发展的障碍。相反,它积极塑造这种发展,在新技术的治理中发挥核心作用。”Günther解释道。
目前,全球各地的医疗系统正在批准许多临床AI系统的使用。AI被定义为一种能够完成以往只有人类专家通过其知识、技能和直觉才能解决的任务的技术。特别是机器学习方法已经成为开发具有此类能力的临床AI的关键驱动力。
然而,尽管AI有许多优点,但AI系统可能会对法律要求的患者知情同意构成潜在威胁。这项义务要求医务人员披露信息,以弥补双方专业知识的不平衡。在研究中,Christian Günther确定了在此背景下可能出现的四个具体问题:
- 临床AI的使用基于AI生成的知识性质及其科学验证的困难,导致了一定程度的不确定性。
- 某些伦理上重要的决定可能在相对独立的情况下作出,即没有有意义的患者参与。
- 患者在医疗决策过程中的理性决策能力可能受到显著削弱。
- 患者可能无法恰当地回应非显而易见的人类专业知识替代AI的情况。
为了解决这些问题,Günther研究了英国和加利福尼亚知情同意原则背后的规范,并通过具体的监管建议展示了如何有针对性地制定法律条例,以促进技术进步并保护患者权利。
(全文结束)


