将心理学理论融入人工智能设计:以人为中心的人工智能叙事性综述Integrating Psychological Theories into AI Design: A Narrative Review of Human-Centred Artificial Intelligence (HCAI)

环球医讯 / AI与医疗健康来源:www.scirp.org英国 - 英语2025-09-28 20:23:19 - 阅读时长35分钟 - 17254字
本文对2020至2025年间发表的文献进行了叙事性综述,系统探讨了心理学理论如何融入以人为中心的人工智能(HCAI)设计中,重点分析了心智理论、情绪智能、认知负荷管理、用户中心设计等关键领域在提升AI可用性、用户信任度和伦理实施方面的应用价值,特别强调了这些理论在心理健康应用中的潜力与挑战,并呼吁未来研究应加强跨文化验证和长期实证研究以确保心理理论有效转化为实际AI功能,从而创建更符合人类心理需求、值得信赖且符合伦理标准的人工智能系统。
心理健康AI认知负荷情绪智能心智理论以人为中心的人工智能以用户为中心的设计伦理考量AI可用性用户信任心理支持系统
将心理学理论融入人工智能设计:以人为中心的人工智能叙事性综述

摘要

本叙事性综述探讨了心理学理论在人工智能(AI)设计中的整合,特别是在以人为中心的人工智能(HCAI)背景下的应用。本综述聚焦于2020年至2025年发表的文献,讨论了影响AI可用性、用户信任度、情感共鸣、认知负荷管理以及伦理实施的关键心理学方面。主要主题包括心智理论(ToM)、情绪智能、认知适应、以用户为中心和以人为中心的设计方法、AI在心理健康领域的应用以及指导AI部署的伦理框架。本综述强调了心理学指导的AI设计在增强用户互动、降低认知需求、建立信任以及确保伦理完整性方面的重要性。未来研究建议强调需要在不同情境中进行实证验证,并开展纵向研究,以进一步完善心理学理论在AI系统中的整合。

关键词

以人为中心的人工智能、心理学理论、心智理论、情绪智能、认知负荷、以用户为中心的设计、心理健康AI、伦理考量

1. 引言

人工智能(AI)已深度融入当代社会,重塑了医疗保健、金融、教育和日常个人活动等领域(Williams等,2022)。其快速发展和广泛采用已显著改变了人们与技术的互动方式,影响范围从自动化客户服务到高级医疗诊断和个人数字助手(Sinha,2024)。然而,尽管技术不断进步,许多AI系统在用户接受度、可用性、认知一致性以及信任方面仍存在缺陷(Cabrera-Sánchez等,2020)。这些缺陷通常是由于AI系统设计中对心理学和行为理论考虑不足所致,表明AI的技术能力与其在人类生活中的心理整合之间存在关键差距(Kirk等,2025)。

针对这一差距,以人为中心的人工智能(HCAI)概念获得了广泛关注。HCAI致力于将人类心理需求、认知过程、情感反应和伦理考量置于AI开发的核心(Gomaa & Mahdy,2024)。它认识到,要使AI技术真正有效、被广泛采用且符合伦理责任,必须与人类心理特征紧密对齐。本系统性综述通过探索近期研究如何将心理学理论融入AI设计,解决了这一需求,从而促进可信度、可用性、情感共鸣和认知效率(Nakao等,2022)。

心理学理论融入AI涉及多个方面,其中几个关键领域被确定为特别有影响力。首先,心智理论(ToM)对于使AI系统通过解释信念、意图和情绪等心理状态来理解和预测人类行为至关重要(Langley等,2022)。通过嵌入ToM原则,AI系统可以更准确地预测用户需求,改善互动流畅性并减少误解。其次,AI的情感维度,包括同理心和情绪智能,已成为在用户与AI系统之间建立更深层次信任和融洽关系的核心(Zhang & Wang,2024)。情绪智能使AI能够识别、解释并适当回应用户情绪,在心理健康和人际沟通等情感敏感情境中显著提升互动质量和感知价值(Vicci,2024)。

此外,认知负荷理论(CLT)通过解决人类有效处理信息的认知能力,在AI互动设计中发挥着关键作用(Baxter等,2025)。采用认知负荷原则设计的AI系统可最大限度地减少不必要的精神负担,提高决策效率和用户满意度(Ayres & Paas,2012)。这在专业和高风险环境中尤为重要,因为在这些环境中,高效的认知处理直接影响绩效结果。以用户为中心的设计进一步强化了将AI开发与人类因素对齐的重要性,提倡采用迭代设计流程,让最终用户积极参与塑造系统功能和界面(Schmager等,2025)。

2. 方法

本综述采用叙事综合方法,侧重于概念整合而非详尽的系统覆盖。目的是探索心理学理论如何应用于以人为中心的人工智能(HCAI)设计,突出反复出现的主题并识别概念差距。与遵循严格文献纳入协议的系统综述不同,叙事方法允许在心理学、计算机科学和人机交互等不同学科中更灵活地选择和解释研究(Braun & Clarke,2006)。

综述过程包括三个广泛阶段:

探索性扫描——对近期研究(2020-2025年)进行初步映射,以识别AI设计中反复出现的心理学构念。

重点选择——优先考虑明确讨论心理学理论(如心智理论、认知负荷、情绪智能)与AI可用性、信任或伦理相关的研究。

主题综合——将选定的文献组织成关键主题领域,综合概念联系,并批判性评估对未来HCAI发展的启示。该方法强调深度和解释性综合而非全面检索,使我们能够对当前理论和应用视角进行更具整合性的描述。

3. 检索策略

文献检索是叙事性和迭代性的,而非系统性的。通过多学科数据库(如PsycINFO、PubMed、Web of Science和Google Scholar)搜索以及检查重要论文的参考文献列表,确定了相关研究。使用"心理学理论"、"人工智能设计"、"心智理论"、"信任"、"情绪智能"、"认知负荷"、"以用户为中心的设计"、"心理健康AI"和"伦理AI"等关键词以不同组合进行检索。

鉴于叙事综述的解释性质,纳入依据相关性和概念贡献,而非严格的纳入标准。优先考虑2020年至2025年间发表的同行评审期刊文章和会议论文,但在理论必要时也参考了早期的重要著作(如认知负荷理论、主题分析)。这种灵活的检索策略使我们能够纳入多样化的学科视角,确保综合反映了HCAI的心理学基础和技术应用。

4. 结果

叙事综述确定了符合纳入标准的相关文章。通过主题分析,出现了六个突出主题:(1)心智理论(ToM)和心理模型,(2)信任、同理心与情绪智能,(3)认知负荷与适应,(4)以人为中心和以用户为中心的AI设计,(5)心理健康应用中的AI,以及(6)伦理考量。

4.1 心智理论(ToM)和心理模型

心智理论(ToM)作为为AI设计提供信息的基础心理学理论显著出现。研究一致表明ToM在使AI系统准确解释和预测人类行为方面的重要性(Williams等,2022)。这种能力显著提高了AI在协作环境中的有效性,实现了更顺畅的互动和更直观的用户体验。Bara、Wang和Chai(2021)的MindCraft研究表明,融入ToM的AI系统可以动态推断并适应用户意图,大幅减少沟通误解并提高协作效率(Li等,2025)。同样,Liao等(2020)的研究表明,使用ToM的自适应对话系统通过提供情境适当的回应显著提高了用户信任度和满意度。ToM整合还有助于管理用户期望,使AI输出与用户心理模型紧密对齐,从而增强用户信心和信任(Li等,2025)。总体而言,这些发现强调了ToM在弥合AI功能与用户期望之间差距中的关键作用,突显了其在创建更符合心理需求和用户友好的AI系统中的价值(Kosinski,2024)。

4.2 信任、同理心与情绪智能

信任被一致认定为用户接受AI技术的核心,与AI系统中的同理心和情绪智能能力密切相关(OpenAI,2024)。研究发现,表现出情绪意识和同理心响应能力的AI可以显著增强用户信任,特别是在医疗保健、咨询和个人支持应用等情感敏感互动中(Vicci,2024)。Liu和Sundar(2018)提供了实证证据,表明情绪智能AI(如富有同理心的聊天机器人)显著提高了感知可靠性和用户信任。然而,研究人员也警告情绪错位或过度拟人化行为可能带来的风险,因为这些行为可能引起用户不适或不信任。Becker等(2023)说明了不恰当情绪表达的潜在弊端,强调了仔细平衡情绪智能以维持信任和互动质量的必要性。因此,AI中的情绪智能必须精确校准,以反映真实的情绪线索,同时不逾越心理边界。确保情绪一致性以及情境适当的互动被证明对维持用户信任和参与至关重要,突显了情绪智能与用户感知在AI互动中的微妙关系(Sousa等,2023)。

4.3 认知负荷与适应

认知负荷适应主题被一致认为对提高AI系统可用性至关重要。认知负荷理论(CLT)强调最小化不必要的认知需求,以优化用户表现和满意度。研究表明,采用认知负荷原则设计的AI系统显著减少了用户的精神疲劳,提高了决策效率,并改善了整体任务表现(Sun等,2025)。Liefooghe和Van Maanen(2023)强调,个性化的认知负荷适应(如简化任务说明或提供与认知一致的输出)导致用户效率和认知舒适度的显著提高。Riefle & Weber(2022)同样发现,根据用户认知风格调整输出复杂性的AI系统提高了互动满意度和表现结果。此外,实施渐进式披露技术的系统——根据用户互动逐步呈现信息——有效减少了认知超载,促进了持续的用户参与和任务有效性(Moreno等,2023)。所审查的文献强烈支持将认知负荷管理作为设计尊重人类认知限制并增强用户体验的AI互动的基本考虑因素(Latif等,2024)。

4.4 以人为中心和以用户为中心的AI设计

以人为中心和以用户为中心的设计原则被一致倡导为有效AI整合的必要条件。这些方法强调让用户直接参与设计过程,确保AI技术与实际用户需求、偏好和情境细微差别紧密对齐(Nakao等,2022)。研究表明,通过参与式设计方法让用户参与可以显著提高AI的可用性、接受度和实际相关性。Torkamaan等(2024)证明,迭代的、以用户为导向的改进有效提高了AI功能和用户满意度,突显了AI开发中持续用户反馈的价值。AI个性化和自适应界面被确定为以人为中心设计的关键要素,通过根据个人偏好和行为模式定制系统响应来增强用户参与度(Bier等,2024)。此外,无障碍考虑也很重要,包容性设计原则确保AI系统能够有效服务于包括认知或身体残疾在内的多样化用户群体。研究结果共同强化了以用户为中心方法论的必要性,主张AI开发应积极融入用户视角和迭代改进,以创建真正可用且包容的系统(Ayeni等,2024)。

4.5 心理健康应用中的AI

AI在心理健康情境中的应用被确定为一个有前景但伦理敏感的领域。研究表明,AI驱动的心理支持系统具有巨大潜力,特别是提供认知行为疗法(CBT)、正念干预和压力缓解策略的情绪智能聊天机器人(Casu等,2024)。Thieme等(2023)提供了证据,表明AI在提高用户可及性和减少与心理健康支持相关的污名方面是有效的。当与情绪响应AI互动时,用户报告了更高的舒适度和治疗依从性,反映了增强的信任和感知支持。Springer和Whittaker(2020)同样注意到透明、情绪校准的AI互动在减少用户焦虑和促进持续参与方面的益处。然而,关于情绪真实性、透明度和情绪操纵风险的伦理关切很突出(Xu等,2023)。研究人员强调了明确定义情绪边界的重要性,确保用户准确了解AI的能力和局限性。文献表明,尽管AI在心理健康支持方面具有相当大的前景,但维持严格的伦理标准和透明沟通对于负责任的实施至关重要(Saeidnia等,2024)。

4.6 伦理考量

伦理考量被确定为将心理学理论负责任地融入AI设计的关键,重点关注公平性、问责制、透明度和用户自主权。研究一致强调了算法偏见、隐私侵犯和情绪操纵相关风险,强调了全面伦理框架和透明机制的必要性(Saeidnia等,2024)。de Filippis和Al Foysal(2024)主张采用多层次的偏见缓解策略,包括数据集多样化、公平约束和AI决策过程的透明报告。监管指南,特别是欧盟的AI法案,被认为对于标准化伦理实践和确保负责任的AI部署至关重要(Dhopte & Bagde,2023)。伦理警惕不仅被强调为防止歧视性结果的必要条件,也是培养用户对AI技术的持续信任和接受度的关键。此外,研究人员强调了伦理透明的重要性,提倡用户友好的机制,清晰地传达AI能力、决策过程和局限性(Dhopte & Bagde,2023)。总体而言,文献证实,稳健的伦理框架和透明度对于维持用户信任、伦理完整性和负责任的AI开发与部署不可或缺(Li等,2021)。

5. 讨论

本叙事综述的结果突显了心理学理论在增强AI系统设计方面的关键作用,与以人为中心的人工智能(HCAI)原则紧密一致(Saeidnia等,2024)。通过系统分析近期文献,本综述证明,整合心理学构念显著提高了AI的可用性、可信度和伦理完整性。每个确定的主题提供了具体的心理学见解,可以指导未来AI开发并为实际设计考虑提供信息(Di Plinio,2025)。

首先,心智理论(ToM)被证明在使AI系统准确解释用户意图和预测行为方面非常有效,从而改善了用户互动质量和满意度。ToM融入AI系统促进了更自然和直观的互动,反映了AI需要准确模拟人类社会认知的必要性(Kosinski,2024)。

信任、同理心与情绪智能主题进一步阐明了AI中情绪响应与用户信任之间的微妙关系。虽然AI互动中的情绪智能显著增强了感知可靠性和用户参与度,但也引发了关于真实性与情绪操纵的伦理关切(Velagaleti,2024)。这些发现表明,情绪智能必须仔细平衡,准确校准,并透明传达,以维持真实的用户信任(Chavan等,2025)。

认知负荷与适应被确定为确保AI功能与人类认知能力之间认知对齐的基本组成部分。按照认知负荷理论设计的系统有效提高了用户效率并减少了精神疲劳,强调了心理学融入AI互动设计的实用重要性。个性化的认知负荷适应特别有效,表明AI系统应根据用户特定的认知档案动态调整其互动(Gkintoni等,2025)。

以人为中心和以用户为中心的AI设计的重要性在所审查的研究中得到一致强化,突显了在整个AI设计过程中积极用户参与的必要性。迭代的、参与式方法显著提高了用户满意度、可用性和接受度(Xu,2021)。这强调AI开发应纳入持续的用户反馈,调整功能以紧密符合实际用户需求、偏好和多样化的情境现实(Fucs等,2020)。

AI在心理健康情境中的应用尤其有前景但伦理复杂。本综述证明了AI通过情绪智能界面提供可访问、可扩展的心理支持的巨大潜力(Ni & Jia,2025)。然而,伦理透明度、情绪真实性和明确定义的边界被证明对负责任和有效的心理健康干预至关重要。这突显了在敏感应用领域进行符合伦理的AI开发的关键需求(Zhang & Wang,2024)。

最后,伦理考量被突出显示为支撑心理学指导的AI设计的基本支柱。综述强调,全面的伦理框架、透明的决策过程和偏见缓解策略对于维持AI技术中的用户信任和伦理完整性至关重要。欧盟AI法案等监管指南为负责任的AI部署提供了必要的治理框架(Oesterling等,2024)。

总体而言,本综述突显了将心理学理论融入AI系统的重要优势,为设计师(Schmager等,2025)和研究人员提供了实用指导。然而,它也确定了需要进一步研究的差距,特别是关于现实世界验证、纵向研究和跨文化适用性。未来研究应侧重于在多样化、现实世界情境中进行实证验证,确保心理学原理有效转化为实际AI功能(Azzam & Charles,2024)。

6. 结论

本叙事综述强调了将心理学理论融入AI设计以增强AI系统可用性、可信度和伦理完整性的重要性。通过对当前文献的批判性综合,显而易见的是,心理学指导的AI显著增强了用户互动,促进了更直观、高效和值得信赖的互动(Bach等,2022)。每个确定的主题——心智理论、信任与情绪智能、认知负荷管理、以人为中心的设计原则、心理健康应用和伦理考量——为未来AI发展提供了有价值的见解和实际意义(Xu & Gao,2023)。

综述证实,使AI系统与人类心理过程、认知能力、情感需求和伦理标准紧密对齐,不仅是有益的,而且对于技术的有效采用和用户持续参与至关重要。通过嵌入心智理论、情绪智能、认知负荷原则和以用户为中心的设计方法,AI开发者可以创建与用户直观共鸣的系统,减少接受障碍并促进有意义的互动(Virvou,2023)。

此外,心理AI整合的伦理维度不容小觑。保持伦理透明度、公平性、问责制和明确传达的边界确保AI技术是负责任的、值得信赖的并被用户接受。监管框架和伦理标准将继续对指导负责任的AI部署和防止潜在滥用或意外后果至关重要(Nastoska等,2025)。

尽管取得了显著进展,系统综述仍指出需要额外关注和研究的领域。具体而言,未来研究必须优先考虑纵向研究和现实世界验证,以确保心理学理论在不同情境中得到有效实施并产生效益。此外,跨文化研究应探索心理学理论在不同全球环境中的适用性和适应性,确保AI系统满足多样化的文化、社会和心理需求(Peters & Carman,2024)。

总之,将心理学理论融入AI设计代表了创造更有效、值得信赖且符合伦理标准的AI技术的关键途径。继续研究和实际实施这些原则对于AI的未来至关重要,有助于实现更深层次的心理对齐、用户信任以及先进技术的广泛社会接受(Poole,2025)。

利益冲突

作者声明在本论文发表方面不存在利益冲突。

参考文献

[1] Ayeni, A. O., Ovbiye, R. E., Onayemi, A. S., & Ojedele, K. E. (2024). AI-Driven Adaptive Learning Platforms: Enhancing Educational Outcomes for Students with Special Needs through User-Centric, Tailored Digital Tools. World Journal of Advanced Research and Reviews, 22, 2253-2265.

[2] Ayres, P., & Paas, F. (2012). Cognitive Load Theory: New Directions and Challenges. Applied Cognitive Psychology, 26, 827-832.

[3] Azzam, A., & Charles, T. (2024). A Review of Artificial Intelligence in K-12 Education. Open Journal of Applied Sciences, 14, 2088-2100.

[4] Bach, T. A., Khan, A., Hallock, H., Beltrão, G., & Sousa, S. (2022). A Systematic Literature Review of User Trust in AI-Enabled Systems: An HCI Perspective. International Journal of Human-Computer Interaction, 40, 1251-1266.

[5] Bara, C., Wang, S. C. H., & Chai, J. (2021). MindCraft: Theory of Mind Modeling for Situated Dialogue in Collaborative Tasks. In Proceedings of the 2021 Conference on Empirical Methods in Natural Language Processing (pp. 1112-1125). Association for Computational Linguistics.

[6] Baxter, K. A., Sachdeva, N., & Baker, S. (2025). The Application of Cognitive Load Theory to the Design of Health and Behavior Change Programs: Principles and Recommendations. Health Education & Behavior, 52, 469-477.

[7] Becker, D., Rueda, D., Beese, F., Torres, B. S. G., Lafdili, M., Ahrens, K. et al. (2023). The Emotional Dilemma: Influence of a Human-Like Robot on Trust and Cooperation. In 2023 32nd IEEE International Conference on Robot and Human Interactive Communication (RO-MAN) (pp. 1689-1696). IEEE.

[8] Bier, H., Hidding, A., Khademi, S., van Engelenbrug, C., Alavi, H., & Zhong, S. (2024). Advancing Applications for Artificial-Intelligence-Supported Ambient Control in the Built Environment. Technology|Architecture + Design, 8, 155-164.

[9] Braun, V., & Clarke, V. (2006). Using Thematic Analysis in Psychology. Qualitative Research in Psychology, 3, 77-101.

[10] Cabrera-Sánchez, J., Villarejo-Ramos, Á. F., Liébana-Cabanillas, F., & Shaikh, A. A. (2020). Identifying Relevant Segments of AI Applications Adopters—Expanding the UTAUT2's Variables. Telematics and Informatics, 58, Article ID: 101529.

[11] Casu, M., Triscari, S., Battiato, S., Guarnera, L., & Caponnetto, P. (2024). AI Chatbots for Mental Health: A Scoping Review of Effectiveness, Feasibility, and Applications. Applied Sciences, 14, Article 5889.

[12] Chavan, V., Cenaj, A., Shen, S., Bar, A., Binwani, S., Del Becaro, T., Funk, M., Greschner, L., Hung, R., Klein, S., Kleiner, R., Krause, S., Olbrych, S., Parmar, V., Sarafraz, J., Soroko, D., Don, D. W., Zhou, C., Vu, H. T. D., Fresquet, X. et al. (2025). Feeling Machines: Ethics, Culture, and the Rise of Emotional AI. arXiv: 2506.12437.

[13] de Filippis, R., & Al Foysal, A. (2024). Securing Predictive Psychological Assessments: The Synergy of Blockchain Technology and Artificial Intelligence. Open Access Library Journal, 11, 1-22.

[14] Dhopte, A., & Bagde, H. (2023). Smart Smile: Revolutionizing Dentistry with Artificial Intelligence. Cureus, 15, e41227.

[15] Di Plinio, S. (2025). Panta Rh-AI: Assessing Multifaceted AI Threats on Human Agency and Identity. Social Sciences & Humanities Open, 11, Article ID: 101434.

[16] Fucs, A., Ferreira, J. J., Segura, V., de Paulo, B., de Paula, R., & Cerqueira, R. (2020). Sketch-based Video&Storytelling for UX Validation in AI Design for Applied Research. In Extended Abstracts of the 2020 CHI Conference on Human Factors in Computing Systems (pp. 1-8). ACM.

[17] Gkintoni, E., Antonopoulou, H., Sortwell, A., & Halkiopoulos, C. (2025). Challenging Cognitive Load Theory: The Role of Educational Neuroscience and Artificial Intelligence in Redefining Learning Efficacy. Brain Sciences, 15, Article 203.

[18] Gomaa, A., & Mahdy, B. (2024). Unveiling the Role of Expert Guidance: A Comparative Analysis of User-Centered Imitation Learning and Traditional Reinforcement Learning. arXiv: 2410.21403.

[19] Kirk, H. R., Gabriel, I., Summerfield, C., Vidgen, B., & Hale, S. A. (2025). Why Human-AI Relationships Need Socioaffective Alignment. Humanities and Social Sciences Communications, 12, Article No. 728.

[20] Kosinski, M. (2024). Evaluating Large Language Models in Theory of Mind Tasks. Proceedings of the National Academy of Sciences of the United States of America, 121, e2405460121.

[21] Langley, C., Cirstea, B. I., Cuzzolin, F., & Sahakian, B. J. (2022). Theory of Mind and Preference Learning at the Interface of Cognitive Science, Neuroscience, and AI: A Review. Frontiers in Artificial Intelligence, 5, Article 778852.

[22] Latif, E., Chen, Y., Zhai, X., & Yin, Y. (2024). Human-Centered Design for AI-Based Automatically Generated Assessment Reports: A Systematic Review. arXiv: 2501.00081.

[23] Li, B., Qi, P., Liu, B., Di, S., Liu, J., Pei, J., Yi, J., & Zhou, B. (2021). Trustworthy AI: From Principles to Practices. arXiv: 2110.01167.

[24] Li, X., Ding, Y., Jiang, Y., Zhao, Y., Xie, R., Xu, S., Ni, Y., Yang, Y., & Xu, B. (2025). DPMT: Dual Process Multi-Scale Theory of Mind Framework for Real-Time Human-AI Collaboration. arXiv: 2507.14088.

[25] Liao, Q. V., Gruen, D., & Miller, S. (2020). Questioning the AI: Informing Design Practices for Explainable AI User Experiences. In Proceedings of the 2020 CHI Conference on Human Factors in Computing Systems (pp. 1-15). ACM.

[26] Liefooghe, B., & Van Maanen, L. (2023). Reducing Cognitive Load through Adaptive AI Interfaces. Journal of Cognitive Engineering and Decision Making, 17, 23-37.

[27] Liu, B., & Sundar, S. S. (2018). Should Machines Express Sympathy and Empathy? Experiments with a Health Advice Chatbot. Cyberpsychology, Behavior, and Social Networking, 21, 625-636.

[28] Moreno, L., Petrie, H., Martínez, P., & Alarcon, R. (2023). Designing User Interfaces for Content Simplification Aimed at People with Cognitive Impairments. Universal Access in the Information Society, 23, 99-117.

[29] Nakao, Y., Strappelli, L., Stumpf, S., Naseer, A., Regoli, D., & Gamba, G. D. (2022). Towards Responsible AI: A Design Space Exploration of Human-Centered Artificial Intelligence User Interfaces to Investigate Fairness. International Journal of Human-Computer Interaction, 39, 1762-1788.

[30] Nastoska, A., Jancheska, B., Rizinski, M., & Trajanov, D. (2025). Evaluating Trustworthiness in AI: Risks, Metrics, and Applications across Industries. Electronics, 14, Article 2717.

[31] Ni, Y., & Jia, F. (2025). A Scoping Review of Ai-Driven Digital Interventions in Mental Health Care: Mapping Applications across Screening, Support, Monitoring, Prevention, and Clinical Education. Healthcare, 13, Article 1205.

[32] Oesterling, A., Bhalla, U., Venkatasubramanian, S., & Lakkaraju, H. (2024). Operationalizing the Blueprint for an AI Bill of Rights: Recommendations for Practitioners, Researchers, and Policy Makers. arXiv: 2407.08689.

[33] OpenAI (2024). ChatGPT (March 14 Version) [Large Language Model].

[34] Peters, U., & Carman, M. (2024). Cultural Bias in Explainable AI Research: A Systematic Analysis. Journal of Artificial Intelligence Research, 79, 971-1000.

[35] Poole, J. (2025). Universal Core Ethics and Safety Framework for ASI Alignment.

[36] Riefle, E., & Weber, T. (2022). Adapting AI Outputs to User Cognitive Styles. Journal of Artificial Intelligence Research, 72, 157-173.

[37] Saeidnia, H. R., Hashemi Fotami, S. G., Lund, B., & Ghiasi, N. (2024). Ethical Considerations in Artificial Intelligence Interventions for Mental Health and Well-Being: Ensuring Responsible Implementation and Impact. Social Sciences, 13, Article 381.

[38] Schmager, S., Pappas, I. O., & Vassilakopoulou, P. (2025). Understanding Human-Centred AI: A Review of Its Defining Elements and a Research Agenda. Behaviour & Information Technology, 44, 3771-3810.

[39] Sinha, R. (2024). The Role and Impact of New Technologies on Healthcare Systems. Discover Health Systems, 3, Article No. 96.

[40] Sousa, S., Cravino, J., Martins, P., & Lamas, D. (2023). Human-Centered Trust Framework: An HCI Perspective. arXiv: 2305.03306.

[41] Springer, A., & Whittaker, S. (2020). Progressive Disclosure: When, Why and How Do Users Want Transparency Information? ACM Transactions on Interactive Intelligent Systems, 10, 1-32.

[42] Sun, C., Zhao, X., Guo, B., & Chen, N. (2025). Will Employee–ai Collaboration Enhance Employees' Proactive Behavior? A Study Based on the Conservation of Resources Theory. Behavioral Sciences, 15, Article 648.

[43] Thieme, A., Hanratty, M., Lyons, M., Palacios, J., Marques, R. F., Morrison, C. et al. (2023). Designing Human-Centered AI for Mental Health: Developing Clinically Relevant Applications for Online CBT Treatment. ACM Transactions on Computer-Human Interaction, 30, 1-50.

[44] Torkamaan, H. et al. (2024). Participatory AI Design Frameworks. Human-Computer Interaction Journal, 29, 12-31.

[45] Velagaleti, S. B. (2024). Empathetic Algorithms: The Role of AI in Understanding and Enhancing Human Emotional Intelligence. Journal of Electrical Systems, 20, 2051-2060.

[46] Vicci, D. H. (2024). Emotional Intelligence in Artificial Intelligence: A Review and Evaluation Study. SSRN Electronic Journal.

[47] Virvou, M. (2023). Artificial Intelligence and User Experience in Reciprocity: Contributions and State of the Art. Intelligent Decision Technologies, 17, 73-125.

[48] Williams, J., Fiore, S. M., & Jentsch, F. (2022). Supporting Artificial Social Intelligence with Theory of Mind. Frontiers in Artificial Intelligence, 5, Article 750763.

[49] Xu, W. (2021). User Centered Design (VI): Human Factors Approaches for Intelligent Human-Computer Interaction. arXiv: 2111.04880.

[50] Xu, W., & Gao, Z. (2023). Applying HCAI in Developing Effective Human-Ai Teaming: A Perspective from Human-AI Joint Cognitive Systems. Interactions, 31, 32-37.

[51] Xu, Y., Bradford, N., & Garg, R. (2023). Transparency Enhances Positive Perceptions of Social Artificial Intelligence. Human Behavior and Emerging Technologies, 2023, Article ID: 5550418.

[52] Zhang, Z., & Wang, J. (2024). Can AI Replace Psychotherapists? Exploring the Future of Mental Health Care. Frontiers in Psychiatry, 15, Article 1444382.

【全文结束】

大健康
大健康