人工智能系统正越来越多地被测试用于支持个人健康目标。近期发表在《行为科学中的技术杂志》上的一项研究证实,AI聊天机器人能够生成减肥指导消息,其被感知的帮助性可与人类专家编写的建议相媲美。研究结果表明,大语言模型或即将为肥胖管理人群提供可扩展的个性化支持方案。
肥胖仍是全球重大健康挑战,影响着大量成年人口并增加糖尿病和心血管疾病风险。虽然适度减重可降低这些风险,但获得持续且个性化的指导往往困难且昂贵。许多人依赖移动健康应用程序发送的自动化消息来帮助保持减重进度。
当前自动化系统通常依赖预设模板,这些消息基于简单规则运作。例如当用户未记录饮食时,系统会发送通用提醒。先前研究表明,用户常认为这类消息重复且缺乏人情味,这种定制化不足可能导致用户参与度降低,限制减重计划成效。
科学家开展此项研究旨在验证现代人工智能能否解决该问题。他们采用大语言模型——这类高级AI系统能理解并生成类人文本——探究AI聊天机器人能否创建出个性化且富有同理心而非机械感的消息。
"全球约40%的成年人及美国超70%人群受超重和肥胖困扰,带来严重健康风险。同时,提供减重指导的临床医生日益短缺,"东北大学博士生、研究作者朱若然(Zhuoran Huang)表示,"自动化指导消息是扩大服务覆盖面并节约时间成本的潜在途径。但现有系统多依赖预设模板,用户常觉其重复且缺乏人情味。我们想验证生成式AI(如ChatGPT)能否在不增加传统定制系统高昂开发成本的情况下,创建更个性化且吸引人的指导消息。尽管AI健康干预兴趣日增,但此前鲜有研究测试AI生成减重指导消息的可行性及其与资深人类教练的对比效果。"
研究纳入87名已参与为期一年行为减重试验的成年人,其身体质量指数(BMI)均属超重或肥胖范畴。BMI是基于身高体重估算体脂的标准指标。实验设计测量了参与者对特定指导消息的帮助性感知。
研究分两阶段进行。两阶段中,研究人员均向参与者展示基于典型减重数据的假设场景,包括前一周可能发生的减重、增重或体重维持情况。针对每种场景,参与者先阅读热量摄入与身体活动的数据摘要。
随后参与者阅读十条指导消息:其中五条由持有硕士学位且经验丰富的专业教练编写,另五条由ChatGPT基于研究人员提示词生成。参与者按1-5分制对每条消息评分,并尝试判断消息来源。
第一阶段中,研究人员仅给予AI基础指令要求其扮演教练并总结数据。结果显示人类教练占优:人类编写消息的帮助性评分显著高于AI生成消息,仅66%的AI消息获得3分及以上评分。反馈指出AI消息缺乏人情味、过于负面且略显专横。
基于此反馈,研究人员在第二阶段优化了AI指令:明确要求聊天机器人采用共情鼓励语气,加入幽默元素并避免重复。
第二阶段结果显著改善:优化后的AI消息帮助性评分与人类消息相当,82%的AI生成消息获得3分及以上评分。这表明在适当指令下,AI在此特定场景中可达到与人类专业人士相当的水平。
研究还发现参与者难以区分消息来源:第二阶段中50%的AI消息被误认为人类编写,表明优化提示词有效模拟了人类语言模式。
定性反馈解释了这些量化结果:参与者赞赏优化后AI消息中的共情表达和具体建议,认可其在不过度批评的前提下肯定自身努力。
但分析也揭示明显差异:部分参与者指出AI消息仍略显程式化,过度聚焦数据;而人类教练更关注数字背后的人,常被描述为更鼓励自主性,AI消息则有时更具指令性。
参与者还强调情境的重要性:AI消息仅基于数字做假设(如未记录饮食即认定遗忘),而人类教练会考虑度假或生病等现实因素。这凸显AI理解用户生活复杂性的持续缺口。
"本研究首次证实AI能生成被认可为有用且难以与人类消息区分的减重指导,"黄向PsyPost表示,"82%的AI消息获'较为有用'及以上评分,与资深人类教练消息相当。但参与者指出AI消息有时更显程式化和数据导向,表明在捕捉人类教练自然流露的温暖共情方面仍有提升空间。该技术或可弥补指导支持缺口,但仍需大量研究。"
"研究结果展现实际应用潜力:AI生成消息的帮助性评分与人类教练相当,且参与者在此设定下无法可靠区分来源。随着AI技术演进,此方法或可扩展减重支持规模,使临床医生能将更多时间投入复杂或高度个性化诊疗。"
本研究存在若干局限需注意:参与者基于假设数据而非自身实时进展评价消息帮助性,若反馈针对真实行为与体重波动,反应或有不同;研究测量的是感知帮助性而非实际减重效果,认可消息有用并不等同于促进行为改变。
"本研究应视为概念验证,证明AI能生成质量媲美人类教练的指导消息,"黄指出,"我们视此技术为辅助临床医生的工具——处理常规指导任务并缓解人力短缺,而非取代人类专业判断。"
未来研究需在活跃临床试验中测试这些AI消息:科学家将探究接收消息是否真能助人长期减重,并探索如何提升AI对疾病或旅行等情境的敏感度。
另一关键研究方向涉及安全与隐私:医疗领域应用大语言模型必须严格遵守数据保护法规,研究人员须确保系统不提供错误医疗建议,部署前建立人工监督协议至关重要。
该研究《比较大语言模型AI与人类生成的行为减重指导消息》由Zhuoran Huang、Michael P. Berry、Christina Chwyl、Gary Hsieh、Jing Wei及Evan M. Forman共同完成。
【全文结束】

