研究揭示父母寻求儿童医疗信息时受AI影响的情况Research reveals AI's influence on parents seeking health care information

环球医讯 / AI与医疗健康来源:www.news-medical.net美国 - 英语2024-10-10 11:00:00 - 阅读时长4分钟 - 1598字
堪萨斯大学生命跨度研究所的新研究表明,当作者未知时,父母在寻求儿童医疗信息时更信任AI而非医疗专业人士。
父母儿童医疗信息AI医疗专业人士可信度《儿科心理学杂志》堪萨斯大学ChatGPT错误信息
研究揭示父母寻求儿童医疗信息时受AI影响的情况

堪萨斯大学生命跨度研究所的一项新研究揭示了由人工智能生成的错误信息的关键漏洞,以及一种可能的应对模型。这项研究发表在《儿科心理学杂志》上,结果显示,当作者未知时,父母在寻求儿童医疗信息时更信任AI而非医疗专业人士,同时他们还认为AI生成的文本具有可信度、道德性和可信赖性。

“当我们开始这项研究时,正值ChatGPT刚刚推出——我们担心父母会如何使用这种新的、便捷的方法来收集儿童的健康信息。父母经常转向互联网寻求建议,因此我们希望了解使用ChatGPT会是什么样子,以及我们应该担心什么。”该研究的主要作者、堪萨斯大学临床儿童心理学博士生Calissa Leslie-Miller说道。

Leslie-Miller及其同事进行了一项横断面研究,涉及116名年龄在18至65岁的父母。这些父母被提供了与婴儿睡眠训练和营养相关的健康文本,但他们并不知道这些内容是由ChatGPT还是医疗专业人士生成的。

“参与者根据感知的道德性、可信赖性、专业知识、准确性和他们依赖这些信息的可能性对文本进行了评分。”Leslie-Miller说。

据堪萨斯大学的研究人员称,在许多情况下,父母无法区分ChatGPT生成的内容和专家生成的内容。当评分有显著差异时,ChatGPT被评为比专家生成的内容更值得信赖、更准确、更可靠。

“这一结果令我们感到惊讶,尤其是在研究进行时ChatGPT刚推出不久。”Leslie-Miller说,“我们开始看到,AI正以一些不那么显而易见的方式融入人们的生活,人们甚至可能没有意识到自己阅读的是AI生成的文本,而不是专家内容。”

Leslie-Miller表示,这些发现令人担忧,因为生成式AI现在可以生成看似来自应用程序或互联网的信息,但实际上这些信息是与AI的对话。“在研究过程中,一些早期版本的AI输出包含错误信息,”她说,“这令人担忧,因为正如我们所知,像ChatGPT这样的AI工具容易出现‘幻觉’——即系统缺乏足够上下文时发生的错误。”

尽管ChatGPT在许多情况下表现良好,但Leslie-Miller表示,AI模型并不是专家,可能会生成错误信息。“在儿童健康领域,后果可能是严重的,因此我们必须解决这个问题,”她说,“我们担心人们可能会越来越多地依赖AI获取健康建议,而没有适当的专家监督。”

Leslie-Miller的合著者包括科罗拉多州奥罗拉市儿童医院和科罗拉多大学医学院的Stacey Simon;密苏里州堪萨斯城儿童慈悲医院健康生活方式和营养中心的Kelsey Dean;Overland Park市Altasciences Clinical Kansas的Nadine Mokhallati博士;以及堪萨斯大学临床儿童心理学副教授兼生命跨度研究所副科学家Christopher Cushing。

“研究结果表明,经过提示工程的ChatGPT能够影响药物、睡眠和饮食决策的行为意图。”作者们报告说。

Leslie-Miller表示,儿科健康信息的重要性凸显了这一问题,但生成式AI可能出错且用户可能没有识别不准确信息的专业知识的问题扩展到了所有主题。“她建议,AI信息的消费者需要谨慎,只依赖于与非生成式AI来源一致的专业知识相匹配的信息。”

“信息来源的可信度仍然存在差异,”她说,“寻找那些经过专业层双重检查的AI集成系统——就像我们一直被告知要谨慎使用维基百科一样,因为它并非总是经过验证。同样的道理现在也适用于AI——寻找更有可能可信的平台,因为它们并非都是一样的。”

Leslie-Miller表示,只要父母明白需要咨询医疗专业人士,AI可以成为寻求健康信息的有益工具。“我认为AI有很大的潜力可以被利用。特别是,它可以以前所未有的速度生成信息,”她说,“但重要的是要认识到,AI不是专家,它提供的信息也不是来自专家来源。”


(全文结束)

大健康
大健康