生成式AI工具正在加入劳动力市场,承诺更快、更智能、更高效的协作。一篇新的预印本研究了人类和数字同事之间的真实合作情况,并探讨了当这些工具承担大量“重活”时会发生什么。
新的AI工具展示了强大的潜力,能够通过提高速度、质量和结果来提升生产力和表现。然而,AI代理如何有效地整合到现有或新兴的工作流程中尚不清楚。这篇新的预印本研究了对AI代理在工作场所角色的有限了解,特别是人类与AI合作时生产力提升的主体和方式。
该研究随机分配团队组成和AI代理的人格特质,以探索AI如何影响协作动态、生产力和输出质量。研究人员开发了一个实验平台,使人类和AI代理能够在复杂的创意任务(如设计营销广告)上进行实时协作。这些广告获得了近500万次在线观看,从而能够从实际参与度指标中进行详细的性能分析。
参与者首先完成了一份测量其人格特质的问卷,并被盲配与一个人类或AI伙伴。配对参与者有40分钟的时间共同创作并提交尽可能多的广告。广告任务结束后,参与者立即完成了第二份调查,评估他们的协作体验以及他们对AI的看法和体验。
更多广告,更少闲聊
与AI代理的合作显著重塑了团队合作,提高了生产力,并改变了沟通动态,相比纯人类团队。
- 人-AI团队比纯人类团队沟通频率高45%。当消息内容被分类时,纯人类团队强调社交和情感沟通(例如建立关系、表达关心、幽默)。相比之下,人-AI团队主要交换任务聚焦和过程导向的消息。例如,人-AI协作更多地集中在提供指令或建议,而不是直接编辑内容。
- 与AI代理合作通过减少纯人类团队所需的社交协调,提高了特定任务元素(如广告文案)的完成率。这对于通常会挣扎的个体尤其有效,但对于高绩效者则不然——AI有效地“提升了低绩效参与者的绩效”。
- 个人人格特质影响沟通模式。AI人格与人类合作者的人格有显著但微妙的交互作用——正如我们期望在人类-人类互动中看到的一样。
更加开放和外向的参与者沟通更频繁,而更加“随和”的参与者在与AI互动时沟通较少。一个尽责的AI显著增加了沟通,但仅当与具有协同尽责性的人类配对时。与不太尽责的人类配对时,愿意简单接受所提供内容的结果较差。随和的AI与外向或神经质的人类配对时显著提高了生产力。外向的AI对人类外向者有益,但在某种程度上“压制”了更加随和、顺从的人类。这些差异突显了配对兼容人格的重要性。
当这些广告在社交媒体上投放时,人-AI团队和纯人类团队在每次点击成本、点击率和观看指标方面显示出相当的实际表现。广告效果主要取决于内容质量,高质量的文字提高了点击率和观众参与时间。
研究表明,将基于GPT的AI代理集成到人类工作流程中改变了团队沟通和协作的方式。一个关键好处是AI代理鼓励更多的任务聚焦互动,减少了人们在社交协调上的时间和精力。这种转变有助于个体变得更加高效,尤其是那些技能水平较低的人。研究还表明,将AI“人格”与其人类用户的人格对齐可以提高生产力和创造力。然而,这种定制需要仔细考虑以确保兼容性并最大化有效性。最后,AI在超出其训练范围的任务上往往表现不佳。
AI在医疗保健领域:帮助、伤害还是悬在你肩上?
虽然使用AI设计吸引点击的广告似乎与患者护理相去甚远,但关于协作、沟通和能力的教训对医疗保健有着实际意义。生成式AI被誉为下一个重大突破。但就像任何强大的工具一样,它也存在风险。
数字技术首次进入医疗保健领域的是电子健康记录(EHR),它带来的危害至少与它所承诺的好处一样多(但未能兑现)。尽管数字协作对涉及账单、激励和支付的人有所帮助,但它并没有很好地与人类合作者配合——为临床医生带来了新的负担,导致倦怠,并将注意力从患者体验上转移开。
航空业通过自动化付出了惨痛的代价。联邦航空管理局(FAA)在自动驾驶技术方面拥有最丰富的AI经验。经过几十年对自动驾驶系统的依赖后,FAA发布了指导,提醒飞行员在条件允许的情况下手动飞行——因为不练习的技能很快就会丧失。
“联邦航空管理局(FAA)认为,保持和提高手动飞行操作所需的知识和技能对于安全飞行操作是必要的。……[鼓励飞行员]在条件允许的情况下手动飞行飞机,包括至少定期在整个起飞和降落阶段,甚至在整个飞行过程中,如果可行且允许的话。”
- 安全通告给运营商 SAFO 17007
随着AI集成到临床工作流程中,医疗保健可能需要采取类似的提示。
人工智能是数字化时代最新的承诺,通过提高生产力和支持各级临床医生来改变医疗保健。然而,这项研究和我们在EHR方面的经验应该提醒我们,将其整合到临床工作流程中必须谨慎行事,以最大限度地发挥其优势并最小化意外风险,例如技能退化。
经验丰富的医生,其专业知识通过多年的专门实践磨练而成,可以从AI中受益,通过自动化常规任务(如记录、诊断和行政文件)获得更多时间专注于复杂的患者护理决策。这些资深临床医生的丰富经验和深度实践使他们不会过度依赖AI。
AI可以作为越来越多受过培训但缺乏经验的提供者的即时导师,提供实时支持,增强信心,并加速他们向基线临床能力的发展。然而,与AI合作并不等于独立思考,AI指导也无法处理即使是经验最丰富的临床医生也会感到挑战的“边缘案例”。过度依赖AI可能会阻碍基础临床推理和批判性思维技能的培养。这些新手可能会变得非常擅长使用AI工具,但真正发展出独立判断力的能力却不足,这在稳健的医疗实践中是必要的。
然而,最大的挑战在于所谓的“熟练工”,这是一个既不是学徒也不是大师、既不是实习生也不是专家的适度经验丰富的一群人,他们是医疗保健劳动力的骨干。AI承诺这些临床医生减少工作量、提高生产力和改进诊断准确性,因为AI越来越多地处理中等技能的任务。然而,随着时间的推移,越来越依赖AI进行临床判断或程序指导可能会削弱他们的独立决策能力和信心。
医疗系统是否会像FAA那样强制实施类似的做法,并找到方法将AI整合到医疗工作流程中,以捕捉其好处而不造成广泛的技能依赖和侵蚀?还是会采用快速行动、打破东西、事后道歉的伦理?
(全文结束)


