医疗领域的每个机构和行业参与者都在开发新型人工智能产品,无论是“微型”AI创意机构还是市场研究新工具,各类人工智能应用层出不穷,承诺帮助营销人员更高效优质地完成工作。
然而,普通民众已在日常生活中以开发者未预料的方式高频使用人工智能模型。今年早些时候,《哈佛商业评论》发现过去一年中,人们使用ChatGPT等生成式人工智能工具进行心理治疗或情感陪伴的频率远超其他用途。
此后,用户与生成式人工智能模型以治疗师身份互动的负面案例屡见报端。《纽约时报》发表多篇评论文章,披露一名青少年自杀身亡事件,重点描述其如何向ChatGPT倾诉心理健康困扰。
过去一个月,生成式人工智能领域出现重大转向。OpenAI近期宣布将在未来产品迭代中加入心理健康“护栏机制”,并为青少年用户设置专项防护措施,此前该工具因被指“鼓励”自杀和暴力行为引发争议。美国食品药品监督管理局(FDA)也计划于11月6日召开专家会议,讨论人工智能心理健康产品的影响。
尽管ChatGPT、谷歌Gemini和Meta人工智能等生成式工具并非专为医疗设计,但其被用于填补医疗需求(尤其是心理健康需求)的事实,凸显了美国人长期难以获取可负担心理健康服务的现状。
行业专家对人工智能与心理健康交叉领域的影响观点不一,但普遍认同技术发展必须配套心理健康保障措施。“当前护栏机制已匹配一线咨询师接受的培训标准,”员工资源中心(Employee Resource Center)首席执行官兼所有者史蒂夫·鲍表示。
人工智能能成为你的新治疗师吗?
2025年的美国心理治疗师面临严峻挑战——心理健康咨询师严重短缺,公众普遍认为获取心理健康服务困难且费用高昂。
心理健康专家、连接医疗企业与疾病亲历者的咨询公司Neurolivd联合创始人乔恩·尼尔森指出,人工智能在心理健康领域的应用总体受到欢迎,因其有望填补现有系统漏洞。作为长期与心理健康问题抗争者,他强调人工智能能为面临困境的患者提供更快捷的服务通道。
“传统治疗的弊端在于99.9%的时间你无法接触治疗师。技术手段意味着患者无需等待一年才能接受治疗,也避免了每节400美元的自费支出,”尼尔森表示,“开发能在整个治疗过程中提供安全支持的技术至关重要。”
尼尔森与其联合创始人瑞秋·沃兹曼指出,当前行业重心多集中于开发辅助治疗师日常工作的AI工具,但也有企业正投资构建面向终端用户的AI治疗平台。“以Slingshot AI的开发为例,其本质是直接面向大众的个性化治疗。目前面向18岁以上人群,待成人市场成熟后将拓展至其他群体,”尼尔森解释道。
沃兹曼补充道:“这些工具潜力巨大,能复现并重构临床诊疗中使重性精神疾病患者获得积极体验的关键要素。”但他们同时强调,此类技术必须设置专项防护措施。研发过程中,研究者需与临床医生紧密合作,借鉴经验证有效的心理健康干预技术。
鲍表示认同:“用于心理治疗的模型(如ChatGPT)必须设置专项护栏,因其并非为治疗目的设计。咨询师需完成3000小时专业培训,当前护栏机制应等效于这3000小时的督导实践,这正是当下最迫切的需求。”
营销人员掌握关键力量
随着人工智能日益普及,越来越多医疗专业人士对不同群体使用工具的方式表示担忧。致力于保护情绪健康及预防自杀的非营利组织杰德基金会(JED)首席医疗官劳拉·埃里克森-施罗特博士指出,青少年与AI聊天机器人互动导致自杀的案例令人忧虑。
“此类事件虽令人遗憾,却凸显了监管的迫切需求,”埃里克森-施罗特表示。她强调行业应主动参与技术塑造而非被动旁观:“尽管技术源于科技界,但其影响遍及全民。医疗营销人员需深度研究目标群体——他们如何使用AI?哪些功能最吸引人?这些问题能揭示关键洞察。”
她建议医疗营销人员重点开发教育性内容,向公众阐明AI工具的使用方法与技术原理,尤其需明确其在心理健康讨论中的局限性。“科技公司负有教育责任,虽不会自我监管,但可在工具运作透明度方面大有作为,这正是医疗企业介入的契机,”埃里克森-施罗特补充道。
鲍呼吁医疗营销人员与传统科技公司合作,弥合产品开发与医疗传播间的鸿沟。他指出医疗营销通常采用更严谨严肃的语调,在传递产品益处的同时警示风险,这种风格对健康影响重大的产品尤为适用。他特别强调:“如何确保产品设计包含必要护栏、人工监督,并基于实际使用场景进行考量?医疗行业必须掌握话语权。”
【全文结束】


