随着机器人逐渐成为医疗领域的核心顾问,理解人类对机器人的信任与依从性变得至关重要。本研究主题聚焦老年人对机器人建议的认知与信任机制,重点分析影响其接受度与依从性的关键因素。近期关于机器人推荐信任度的研究揭示了塑造信任的心理与社会因素,填补这些理解空白并解决潜在偏见,有助于设计更值得信赖的机器人顾问系统,从而提升医疗服务质量。
大语言模型(LLMs)在机器人顾问中的作用不可忽视,其基于认知语言模型的技术使机器人能够进行自然且具有情境感知能力的对话。这些系统通过模拟人类语言理解的认知过程,生成个性化健康建议、解答用户疑问并提供陪伴服务。然而,如何确保LLMs驱动的顾问系统的可靠性与伦理合规性仍是亟待解决的挑战。
配备LLMs或新型认知模型的社会机器人可通过情感互动缓解孤独感与认知衰退。用户对这类机器人的信任受自主性感知、透明度及控制权等因素影响,深入理解这些动态关系对于设计老年人信赖的医疗顾问系统至关重要。此外,研究还涵盖伦理考量,如数据隐私保护、算法偏见消除及负责任的AI部署。通过分析信任构建机制与人机交互模式,本研究将推动医疗机器人领域公平性与安全性的伦理框架发展。
LLMs与认知语言模型在社会机器人中的整合标志着医疗领域的重大转型,但同时也要求对信任相关挑战进行更深入的研究。优化人机关系将直接改善老年医疗结果,提升对医疗建议的依从性并促进整体福祉。
【全文结束】


