尽管2023年见证了向开源AI模型的转变、生成式AI投资的激增以及AI监管的增加,但这一年也发布了149个基础模型——创历史新高,仅在美国,私人对AI的投资就达到了670亿美元。与此同时,AI在许多基准测试中达到了或超过了人类水平的表现。为什么现在要回顾2023年,而2025年即将来临?因为本周,斯坦福大学以人为中心的人工智能研究所(简称“HAI”)重新审视了其2024年最常阅读的10篇博客文章。这些2023年的发现于2024年4月发布。尽管上述进展显著,“关于就业安全、AI产品安全和监管措施的需求的担忧正在上升,”HAI内容主管Shana Lynch在介绍该列表时写道。“年轻和受教育程度较高的群体特别关注AI对就业的影响。”
以下是Lynch在12月9日的列表中摘录的10篇文章中的5篇:
1. 大型语言模型在医疗保健中的应用:接近但尚未实现
尽管大型语言模型(LLM)在医疗保健中展现出巨大潜力,“但在它们可以安全地集成到临床实践中之前,我们还需要克服一些重大挑战,”Lynch引用斯坦福学者的话写道。当前对LLM的评估“通常依赖于精选数据而不是真实患者信息,且评估工作在医疗任务和专科之间不均衡。”研究团队建议进行更严格、系统的评估,使用真实患者数据,并建议利用人类指导的AI代理来扩大评估范围。
2. 许多研究论文由LLM撰写。太多了吗?
斯坦福大学的James Zou和他的团队发现,近18%的计算机科学论文和17%的同行评审包含AI生成的内容,Lynch写道。这种快速采用“突显了LLM在研究中的潜在好处和伦理挑战,”她补充道。Zou主张在LLM使用中提高透明度,指出虽然AI可以增强清晰度和效率,但研究人员必须对其工作负责,以维护科学过程的完整性。
3. 生成式AI生成错误的医学参考
研究人员发现,即使是最先进的LLM也经常产生无支持的声明或引用无关来源,例如ChatGPT-4的检索增强生成在高达30%的情况下产生无支持的陈述,Lynch写道。随着AI工具在医疗保健中的日益普及,专家呼吁进行更严格的评估和监管,以确保这些系统提供可靠、基于证据的信息。
4. NLP帮助检测心理健康危机
随着心理健康需求的激增,斯坦福医学院的学生Akshay Swaminathan和Ivan Lopez开发了一种名为Crisis Message Detector 1(CMD-1)的自然语言处理工具,以改善处于危机中的患者的响应时间。“在心理健康提供商Cerebral的数据上测试,CMD-1在识别紧急情况方面的准确率达到97%,并将患者等待时间从超过10小时减少到10分钟,”Lynch报告说。该项目突显了AI在支持临床医生、简化工作流程和增强医疗保健环境中的危机响应方面的潜力,并强调了跨学科合作以有效满足临床需求的重要性。
5. AI时代下的隐私:如何保护我们的个人信息?
潜在的滥用,特别是在LLM中,从用于训练的网络数据抓取到AI驱动的威胁如语音克隆和身份盗窃,范围广泛。为了应对这些问题,斯坦福HAI的Jennifer King和Caroline Meinhardt建议需要更强的监管框架,Lynch指出。他们提倡转向选择加入的数据共享、供应链方法的数据隐私和集体解决方案如数据中介,以在AI和大规模数据收集主导的时代赋予用户权力。
(全文结束)


