早在新冠疫情爆发前,人工智能尚未普及之时,中国研究人员就发现人们常在社交媒体上表达最深层的情感。部分用户不仅流露悲伤情绪,更公开表示结束生命的意愿。面对海量社交媒体帖子,研究者开始构建计算机模型,旨在筛选数千条内容并标记需转交临床医生的重点案例。
费尔菲尔德大学查尔斯·多兰商学院商业分析副教授、人工智能与技术研究所主任陶杰表示,尽管其研究专长——机器学习、人工智能和自然语言处理——日益重要,但他深感研究缺乏实际影响力。“发表论文固然有成就感,但若连我母亲都不愿阅读,这有何意义?若无人关注,研究便失去价值。”自2015年任教费尔菲尔德大学以来,陶杰承诺将运用专业技能服务社会。在新冠疫情封锁期间,他带领团队基于中国早期研究开发出新型AI模型,该模型能以惊人准确度识别社交媒体中的自杀意念。
陶杰团队研发的AI工具被设计用于扫描Reddit、X和新浪微博等六大主流社交平台,通过识别特定短语组合标记潜在高危帖子,再由人类临床医生跟进干预。早期中国研究者识别真实自杀意念的准确率约为70%,存在较多假阳性案例;而陶杰的AI模型在相同数据集测试中将准确率提升至近90%。“我们使检出率从每周5例提升至近25例。”他解释道,该模型全称为“知识增强型基于Transformer的自杀意念检测方法”(KETCH),需对AI“黑箱”进行精密调整——因AI难以理解人类擅长的反讽与幽默。
伦理考量
纽约大学朗格尼医疗中心医学伦理部门创始人、里奇菲尔德居民亚瑟·卡普兰指出,自杀是重大公共卫生挑战,而青少年心理健康服务资源严重短缺。“若康涅狄格州家长希望孩子接受心理咨询,可能面临长达一年的候诊名单。”他认为能扫描公开帖子的AI工具有助缓解危机,但存在关键伦理问题:用户是否应被告知其公开内容被AI分析?“即使我们有权拒绝TikTok转售个人信息,但若平台用AI监测心理健康,立法机构必须就此展开深入辩论。”他质疑道,“若系统出错,责任应由谁承担?”
心理健康服务提供商Spring Health首席产品官吉乔·马修表示:“AI发展速度已超越监管框架制定能力。”该公司于10月成立专注AI与心理健康安全的伦理委员会,成员涵盖保险机构、医疗机构及耶鲁医学院等多方专家。委员会首要任务是建立评估AI工具“安全性、伦理性和临床有效性”的框架,“目标是制定统一安全标准,确保心理健康AI创新负责任地推进。”马修强调:“在心理健康领域,技术失误即等同于人性失误。我们正超前于法规运行,企业必须自主设定安全与问责的高标准。”
陶杰承认伦理风险:错误接触可能诱发用户自杀意念,或漏判人类医生能察觉的求助信号。“两类错误都令人担忧,但提升准确率是关键方案。系统最终保障是避免干扰无自杀意图者,同时绝不遗漏真实危机。”马修补充:“AI不会取代心理医生,但将改变诊疗模式——未来是AI支持的人类主导关怀,使治疗更高效、持续且可及。”陶杰明确表示,其模型仅作为临床工具辅助诊断:“医疗服务提供方可将工具嵌入平台,确保对终端用户透明可见。”
下一步计划
陶杰团队正持续优化自杀意念检测模型,同时探索扩展至抑郁症、多动症和创伤后应激障碍等更广泛心理健康问题。此外,受父亲癌症诊断启发,他正开发新型AI系统:“该工具每日自主检索互联网,追踪最新药物试验、实验疗法及FDA审批信息,由多个AI协同完成研究验证与语言转化。”系统将复杂医学进展转化为通俗易懂的表述,助力患者获取前沿医疗知识。
任何有自残想法或需免费保密心理支持者,可拨打/发送短信至美国国家自杀预防热线:988或800-273-8255(西班牙语专线:888-628-9454;聋哑人士请先拨711再转988)
【全文结束】


