人工智能会让人类研究失去人性吗Will AI make research on humans…less human?

环球医讯 / AI与医疗健康来源:www.yahoo.com美国 - 英语2025-12-31 05:45:27 - 阅读时长7分钟 - 3317字
本文深入探讨人工智能在人类受试者研究中的双重影响,指出当前伦理监管框架严重滞后于技术发展;专家警示AI通过大规模数据采集可能加剧健康不平等,边缘群体在未经充分知情同意的情况下承担主要风险,而"数字孪生体"等新技术更引发隐私权与数据所有权的根本性质疑;文章强调负责任AI需建立伦理数据获取机制,确保研究收益公平分配,避免将临床责任转嫁给医护人员,最终防止技术偏见固化社会不公。
人类受试者研究AI医疗医疗数据隐私保护伦理监管IRB数据自主权数字孪生体健康风险公平原则可识别数据
人工智能会让人类研究失去人性吗

人工智能会让人类研究失去人性吗?

如果你是人类,你极有可能曾参与过人类受试者研究。或许你参加过临床试验,填写过健康习惯调查问卷,或在大学时为换取20美元参与过研究生的实验。又或许你本人作为学生或专业人士开展过研究。

核心要点

  • 人工智能正改变人类研究方式,但保护受试者的监管框架未能同步更新
  • 人工智能有潜力提升医疗效率,但前提是构建过程具备适当监管
  • 我们的个人数据正以未知或未经同意的方式被使用,边缘化群体承担最大风险

人类受试者研究(HSR)顾名思义是针对人类开展的研究。联邦法规将其定义为涉及活体个体、需通过互动获取信息或生物样本的研究,也涵盖"获取、使用、研究、分析或生成"可能识别受试者身份的私密信息或生物样本的研究。该领域主要分为社会行为教育类与生物医学类两大范畴。

开展人类受试者研究必须获得机构审查委员会(IRB)批准。IRB是专为保护人类受试者而设的科研伦理委员会,任何承接联邦资助研究的机构都必须设立。

人类受试者研究保护机制并非与生俱来。20世纪充斥着骇人听闻的研究滥用案例。1972年塔斯基吉梅毒研究解密引发的公众抗议,直接促成了1979年《贝尔蒙特报告》的发布。该报告确立了三大伦理原则:尊重个体自主权、将潜在危害降至最低并最大化受益、公平分配研究风险与收益。这成为人类受试者保护的联邦政策基础——即规范IRB运作的《共同规则》。

时过境迁,人工智能正在彻底改变人类研究方式,但伦理与监管框架未能与时俱进。

塔米科·伊藤作为人类受试者研究保护与AI治理领域的认证IRB专家(CIP),正致力于改变这一现状。她创立了科技与人类受试者研究咨询公司(TechInHSR),为审查涉AI研究的IRB提供支持。近期我与伊藤探讨了AI如何颠覆研究格局,以及其在人类受试者研究中最大的机遇与风险。以下为经适当编辑的访谈实录。

您拥有逾二十年人类受试者研究保护经验。AI的广泛采用如何改变了这一领域?

AI彻底颠覆了传统研究模式。过去我们通过研究个体推导群体规律,如今AI却从群体级数据中提取模式来决策个体事务。这种转变暴露了IRB体系的漏洞,因为我们的工作核心依据仍是近半个世纪前的《贝尔蒙特报告》。该报告关注的是真实人体而非"人类数据主体"。当前AI聚焦于人类数据主体——他们的信息常在不知情情况下被纳入AI系统。如今海量个人数据被多家企业反复收集利用,往往未经同意且几乎缺乏监管。

能否举例说明深度应用AI的人类受试者研究?

在社会行为教育研究领域,常见案例是利用学生数据训练模型以优化教学方法。医疗领域则用电子病历训练预测疾病风险的模型。AI更彻底改变了我们对可识别数据与再识别数据的认知。

当前许多机构声称数据"已匿名化"而规避监管,依据仍是过时的可识别性定义。

这些定义源自何处?

医疗领域基于HIPAA(美国健康保险流通与责任法案)。该法律制定时并未预见当今的数据应用方式,尤其未考虑AI环境。其核心逻辑是:若移除特定数据字段,个体便难以被重新识别——但我们现已知这并不成立。

AI能为研究流程带来哪些改进?许多人可能不了解IRB保护的必要性,使用AI的依据是什么?

负责任构建的AI确有提升医疗质量与研究效率的潜力。设计精良的工具能更早发现问题,例如通过影像诊断识别脓毒症或癌症迹象,因其能将结果与专家临床判断进行比对。

但据我观察,当前多数工具设计欠妥,后续应用规划也缺乏深思,这已造成实际伤害。

我正探索如何用AI优化工作流程:它能处理海量数据、减少重复性任务,提升效率。只要负责任地使用,AI确有辅助价值。例如可加速IRB申请流程,委员会成员可用它分析风险等级与警示信号,优化与研究团队的沟通。AI潜力巨大,但关键在于构建与使用方式是否负责。

您认为AI在人类受试者研究中近期最大的风险是什么?

首当其冲的是"黑箱决策"问题:我们无法知晓AI的结论生成机制,这使合理决策变得困难。

即便AI可解释性有所提升,首要伦理困境仍是数据收集过程本身:我们是否获得授权?是否取得许可?是否有权采集甚至商品化这些数据?

这引向另一重大风险——隐私保护。相较于美国,他国在隐私权方面可能更完善。而美国公民缺乏充分隐私权与数据自主权,无法决定数据如何被收集、使用及共享。

所有数据都具可识别性,这极大增加了数据主体的风险。研究表明,仅凭MRI扫描即可重新识别个体,即便没有面部信息、姓名等其他标识;通过智能手表步数结合地理位置数据也能实现身份定位。

当前最值得关注的是"数字孪生体"概念:它是由个人数据构建的详细数字分身。医疗记录、生物特征、社交媒体、运动轨迹、在线行为乃至语音样本都可能被纳入。AI系统整合所有行为数据创建与你高度相似的模型,这既可预测你对药物的反应,也可能在未经许可时模仿你的声音或实施其他行为。这种未经你授权创建的数字孪生体在技术上等同于你,但你对其毫无控制权。隐私领域对此监管不足,常以"用于改善健康"为由合理化其应用。

长期风险有哪些?

IRB原则上不得考量长期影响或社会风险,仅关注个体层面的直接影响。但在AI领域,真正的危害恰恰在于歧视、不平等、数据滥用等系统性社会问题。

另一个风险涉及数据质量。IRB必须遵循公平原则,确保研究收益与风险均等分配。但现实是边缘化群体的数据常在未经同意时被用于训练工具,当这些工具因偏见产生错误时,他们却承担不成比例的伤害。

他们既未获得工具优化后的实际收益,却要承受全部成本。

恶意行为者是否可能利用这些数据实施针对性攻击?

完全可能。由于隐私法律缺失,数据在缺乏监管的情况下被共享甚至出售给恶意方,这将直接危害民众。

IRB专业人士如何提升AI素养?

关键在于认识到:AI素养不仅关乎技术理解。知晓"如何运作"远不如懂得"该提出哪些问题"重要。

我创建了IRB审查AI研究的三阶段框架,帮助委员会评估不同开发阶段的风险,并理解项目具有循环性而非线性特征。通过调整传统工作模式,我们方能有效审查循环式研究项目。

随着AI幻觉率降低及隐私问题解决,人们会更接纳AI在人类研究中的应用吗?

存在"自动化偏见"现象:我们倾向于盲目信任计算机输出。即便非AI工具,我们也习惯轻信计算结果而不加质疑。加之当前快节奏环境——尤其在临床场景中——医护人员时间紧迫,很难复核AI输出的准确性。

IRB审查人员同样面临压力。若上级要求"每日完成固定任务量",而AI能加速流程且关乎工作考核,人们更可能屈服于压力直接采纳结果而不复核。

理想中AI幻觉率理应持续下降?

所谓"AI改进"本质是:当模型获得更多此前忽略群体的数据时,偏见与幻觉才会减少。这意味着企业宣称"获取更多数据"时,极可能未经同意从人们意想不到的渠道抓取信息。

这绝非进步,而是变本加厉的剥削。真正的改进需要伦理化的数据获取机制:确保数据收集使用有明确边界、惠及全民并获有效授权。我认为这将依赖法律规范、行业透明度,但更需临床医生的推动。

开发工具的企业正游说立法,试图将事故责任完全转嫁给终端用户——即医护人员或患者。

若我身为医生且需为AI错误担责,我绝不会采用它——没人愿意为技术失误背锅。对此我始终保持审慎。

请描述最坏情景及避免方法

一切始于研究阶段。AI最糟情景是:它主导我们人生的决策——工作、医疗、贷款、购房。当前所有系统均基于有偏数据构建,且普遍缺乏监管。

IRB主要监管联邦资助研究。但AI研究常使用未经同意的人类数据,IRB往往直接豁免审查或根本不介入。这使人类受试者应有的保护机制形同虚设。

同时,人们过度信任这些系统而停止质疑输出。我们在依赖并不真正理解的工具,从研究阶段起就将不平等嵌入日常系统。公众普遍信任研究结果,不会质疑由此衍生并投入实际应用的工具。这将持续喂养不平等、不公正与歧视,最终伤害数据代表性不足的群体。

【全文结束】

大健康
大健康