斯坦福HAI回顾:2024年最受关注的博客文章Stanford HAI lookback: Best-read blog posts of 2024

环球医讯 / AI与医疗健康来源:aiin.healthcare美国 - 英语2024-12-10 11:29:00 - 阅读时长4分钟 - 1539字
本文回顾了2024年斯坦福大学以人为中心的人工智能研究所(HAI)最受欢迎的10篇博客文章,涵盖了大型语言模型在医疗领域的应用、研究论文中的AI生成内容、AI生成的错误医疗参考、自然语言处理在心理健康危机检测中的应用以及AI时代的隐私保护等多个方面。
斯坦福HAI2024年博客文章AI进展医疗保健LLM就业安全产品安全监管措施隐私保护心理健康
斯坦福HAI回顾:2024年最受关注的博客文章

2023年见证了开源AI模型的转向、生成式AI投资的激增以及AI监管的加强。那一年还发布了149个基础模型——这是迄今为止最多的,仅在美国,私人对AI的投资就达到了670亿美元。与此同时,AI在许多基准测试中达到了或超过了人类水平的表现。为什么在2025年即将来临之际,还要回顾2023年的进展呢?因为本周,斯坦福大学以人为中心的人工智能研究所(HAI)正在重新审视其2024年最受关注的10篇博客文章。这些2023年的发现是在2024年4月发布的。尽管取得了上述进展,但“对就业安全、AI产品安全和监管措施的需求日益增加,”HAI内容主管Shana Lynch在介绍这份名单时写道。“更年轻、受教育程度更高的群体特别关注AI对就业的影响。”

以下是Lynch于12月9日发布的清单中的五篇文章摘录:

1. 大型语言模型在医疗保健中的应用:接近但尚未达到

尽管大型语言模型(LLM)在医疗保健领域展现出巨大潜力,但“我们仍需克服一些重大挑战,才能将其安全地整合到临床实践中,”Lynch引用斯坦福学者的话写道。目前对LLM的评估通常依赖于精心挑选的数据,而不是真实患者的信息,而且在不同的医疗任务和专科之间的评估工作也不均衡。研究团队建议进行更严格、系统的评估,使用真实患者数据,并建议利用由人类指导的AI代理来扩大评估工作。

2. 许多研究论文是由LLM撰写的。太多了吗?

斯坦福大学的James Zou和他的团队发现,近18%的计算机科学论文和17%的同行评审包括AI生成的内容,Lynch写道。这一快速采用“既突显了LLM在研究中的潜在好处,也突显了伦理挑战,”她补充道。Zou主张在使用LLM时提高透明度,指出虽然AI可以增强清晰度和效率,但研究人员必须对其工作负责,以维护科学过程的完整性。

3. 生成式AI生成错误的医疗参考

研究人员发现,即使是最先进的LLM也会频繁产生没有支持的声明或引用无关的来源,例如,ChatGPT-4的检索增强生成会生成高达30%的无支持陈述,Lynch写道。随着AI工具在医疗保健中的应用越来越广泛,专家呼吁进行更严格的评估和监管,以确保这些系统提供可靠、基于证据的信息。

4. NLP帮助检测心理健康危机

随着心理健康需求的激增,斯坦福医学院的学生Akshay Swaminathan和Ivan Lopez开发了一种名为Crisis Message Detector 1(CMD-1)的自然语言处理工具,以改善危机患者的响应时间。Lynch报告称,该工具在心理健康服务提供商Cerebral的数据上进行了测试,能够在识别紧急情况方面达到97%的准确性,并将患者的等待时间从超过10小时减少到10分钟。该项目展示了AI在通过简化工作流程和支持危机响应来支持临床医生方面的潜力,并强调了跨学科合作的重要性,以有效满足临床需求。

5. AI时代的隐私:如何保护我们的个人信息?

潜在的滥用,特别是LLM的滥用,范围从用于训练的网络数据抓取到由AI驱动的威胁,如语音克隆和身份盗窃。为了应对这些问题,斯坦福HAI的Jennifer King和Caroline Meinhardt建议,需要更强有力的监管框架,Lynch指出。他们提倡转向选择加入的数据共享、数据隐私的供应链方法,以及像数据中介这样的集体解决方案,以在AI和大规模数据收集主导的时代赋予用户权力。

阅读更多

相关阅读:

  • 五种让AI提升患者满意度、提高提供者表现的方法
  • 一个简单的提案,呼吁AI监管机构围绕一个简单的计划行动
  • AI和机器人技术在实际环境中改善儿科护理的10种方式
  • 调查发现临床医生和IT专业人士之间存在“令人担忧的脱节”,运营领导者“夹在中间”


(全文结束)

大健康
大健康