许多医生认为患者应避免向人工智能寻求医疗建议。然而,考虑到加拿大约有650万人尚未配备基础医疗提供者,医生们也承认无法阻止患者向AI寻求答案。
医生承认AI有潜力 但警告不可单独依赖
家庭医生Sameer Chhabra在CBC Radio的报道中指出,多伦多大学家庭与社区医学系主任Danielle Martin态度鲜明:"我认为患者不应使用ChatGPT获取医疗建议。绝对不能。"但面对加拿大医疗资源缺口,她也承认医生无法阻止患者转向大语言模型驱动的聊天机器人。
这种担忧并非个别现象。安大略省医学会等机构及桑尼布鲁克健康科学中心的研究都发出类似警示。2025年一项对包括ChatGPT、DeepSeek和Claude在内的10个主流聊天机器人的研究表明,这些系统存在"对科学结论过度泛化的严重倾向,可能导致大规模误读研究发现"。
Martin建议患者优先使用加拿大各省的医疗热线(如大多数省份的811号码),若必须使用聊天机器人,应避免开放式提问,同时验证AI生成答案的来源可靠性。
提问技巧决定信息质量
与传统搜索引擎提供可靠来源链接不同,Gemini、Claude等聊天机器人会直接生成答案。Martin强调,普通患者难以判断AI回答中哪些信息是必要而准确的。
例如,当询问"腿部出现红色皮疹可能是什么"时,AI可能提供过量信息反而造成误导。"我担心忙碌的普通人无法正确处理这些信息",Martin指出,对于狼疮等复杂疾病,患者可能缺乏筛选无效信息的能力。
建议改为询问"哪里可以找到关于流感疫苗的权威信息"等获取可靠资源的问题,而非直接询问医疗建议。
警惕治疗建议的地域偏差
Martin特别警告不要轻信AI推荐的治疗方案,如皮疹应购买某药膏等建议。对于可能由多种原因引起的症状,应直接咨询医护人员而非AI。
女子学院医院卫生系统解决方案与虚拟护理研究所的Onil Bhattacharyya博士指出,虽然AI工具会倾向于建议就医,但其引用的美国医疗文献可能导致推荐加拿大不可用的治疗方案。
他使用如OpenEvidence等整合医学期刊信息的工具,这类系统能为医疗专业人士提供可及的答案。Bhattacharyya认为AI可促进医疗知识民主化,但患者难以评估AI建议的可靠性。
慢性病患者的使用边界
Bhattacharyya认为AI在慢性病管理中可能帮助提升健康素养,但警告避免对非特异性症状进行探索。"作为家庭医生,我们经常建议观察等待,但AI可能无法传达这种谨慎判断"。
尽管存在风险,Martin承认AI在记忆罕见病症关联方面具有优势:"比如询问'血小板减少的可能原因有哪些',AI可能列出我已遗忘的六个医学知识点"。
【全文结束】