医疗保健中的AI关键在于正确模型选择
AI in healthcare: It all depends on the right model
2025年10月07日
提出复杂问题,快速获得答案——这是当今许多人使用基于AI的聊天机器人的方式。但这些机器人存在弱点;它们以编造或扭曲信息而闻名。这类程序将来是否仍可用于医疗保健?
在接受MEDICA.de采访时,保罗·卢科维奇教授(Paul Lukowicz)解释了这些机器人背后的AI模型(大型语言模型或基础模型)对医疗保健的影响,以及为什么它们并非灵丹妙药但仍可能有用。
医疗保健中的AI简要概述
- 大型语言模型或基础模型极大地简化了对AI模型的访问。
- 在可预见的未来,这些模型可能特别适用于个性化健康应用。
- 从长远来看,它们可以通过使信息更易获取来提高医疗保健部门的效率。
卢科维奇教授,您目前在医疗保健领域的AI和大数据方面观察到哪些趋势?
保罗·卢科维奇教授: 我认为,与所有AI领域一样,当前的热点是基础模型。这些模型最初被称为大型语言模型,即ChatGPT等模型。它们的效果是,您不再需要为每个特定应用广泛训练系统。
这些是预训练系统,您只需输入一些附加信息,它们就能突然提供解决方案。但有一个问题:如何确保这些解决方案确实有意义,而不仅仅是看似如此?
您必须清楚地沟通模型能做什么和不能做什么
保罗·卢科维奇
德国人工智能研究中心(DFKI)
为什么现在这一点特别令人兴奋?
卢科维奇: 这些模型使大量公司和应用能够访问高性能AI。训练此类系统所需的资源,即获取数据、计算能力、基础设施和专业知识,以前需要专门的AI部门。现在,即使是小型企业也能获得此类模型的访问权限。
而这正是问题所在:它有时会给人一种错觉,即您可以无需深入AI专业知识就能使用这些模型。这可能产生负面影响,因为产品最终可能无法按您想象的方式工作。
另一个趋势是,这些模型将改变我们使用可穿戴设备的方式。如今的可穿戴设备无法理解我们的生活;它们不会告诉我们"这就是你需要做的以保持健康"。这在实验室中可行,但在现实中不行。语言模型未来可能改变这一点。然而,这将在健康和生活方式领域发挥更大作用,而非在医疗保健领域。
会议:AI与大数据——释放医疗保健数据的力量
保罗·卢科维奇在MEDICA 2025
2025年11月18日星期二,MEDICA创新论坛(12号厅)的这一会议将聚焦AI。保罗·卢科维奇教授(DFKI)将主持一场高水平的小组讨论,主题是AI作为医疗保健的伙伴——AI如何支持人类专业知识和决策制定,演讲者包括微软和萨尔布吕肯医院等机构的代表。
AI模型:建立信任,正确使用
整合数据并提供信息:这是大型语言模型/基础模型未来可能在医疗保健中使用的方式。
在您看来,研究和行业需要做些什么来确保患者和医疗专业人员信任AI并接受其使用?
卢科维奇: 我认为必须清楚地沟通此类模型能做什么和不能做什么。当然,用户也必须质疑他们使用的模型类型以及运营该模型的公司所在地,因为这涉及健康数据的保护。
在德国,一方面,我们倾向于在许多领域过度强调数据保护,以至于限制了我们的发展。另一方面,不可否认的是,有人坐在那里收集我的数据,而我不知道是谁或为了什么目的。当涉及到关于健康的最私密问题时,这对用户来说非常成问题。因此,必须建立这种信任,这也意味着我必须说明什么是可能的,什么是不可能的。
您认为五年后我们将在医疗保健中如何使用AI?
卢科维奇: 我相信AI将改变医疗保健的几乎所有领域。很难说五年内会以何种程度实现这一点。五年前,ChatGPT甚至不存在。这表明变化正在迅速发生。
总体而言,我们将能够在医疗保健中更高效地工作。例如,考虑农村地区的医疗保健问题,许多地方缺乏应有的护理。当然,AI不会在这里取代医生,也不应该取代。但如果例如有一位当地全科医生,那么此人可能缺乏许多领域的专业知识。在这里,AI将提供访问更多信息的可能性。医生随后将能够评估这些信息,并比以前做更多的事情,而无需立即将人们送到专科诊所。
对于较小的医院,情况类似,它们可以使用AI做出更好的诊断,可与顶级大学医院相媲美。AI工具也适用于行政管理和文档工作,这些领域消耗了医院大量资源。
关于保罗·卢科维奇
保罗·卢科维奇博士(Prof. Dr. Paul Lukowicz)是德国凯泽斯劳滕理工大学(RPTU University)计算机科学系的人工智能全职教授,在该校领导嵌入式智能团队,同时担任同样位于凯泽斯劳滕的德国人工智能研究中心(DFKI)的科学主任。他的研究聚焦于情境感知的普适和可穿戴系统,包括传感、模式识别、系统架构、大规模自组织系统模型及其应用。
【全文结束】
声明:本文仅代表作者观点,不代表本站立场,如有侵权请联系我们删除。
本页内容撰写过程部分涉及AI生成(包括且不限于题材,素材,提纲的搜集与整理),请注意甄别。