2024 年,高管们是否了解或关心员工对生成式人工智能的使用?In cooperation with

环球医讯 / AI与医疗健康来源:aiin.healthcare美国 - 英语2024-09-25 13:42:00 - 阅读时长3分钟 - 1346字
新调查显示美国企业领导在 AI 使用上风险意识不足,文中列举了相关要点。
2024年高管员工生成式人工智能使用风险政策诉讼监管人力资源Littler报告
2024 年,高管们是否了解或关心员工对生成式人工智能的使用?

在急于利用人工智能做任何事的过程中,美国的企业领导者们是否在随意对待风险?一项针对 330 名高管的新调查显示,不到一半的组织制定了政策来减轻人工智能的固有风险。即使在那些已经将担忧编入政策的组织中,这些政策“缺乏使其最有效的力度和内部一致性”。这一发现和评论来自专门从事劳动和就业业务的国际律师事务所 Littler,该事务所于 9 月 24 日发布了关于高管项目的报告。该报告从自上而下的角度深入探讨了风险与回报之间的平衡状况。虽然医疗保健并非该工作的重点,但报告内容与美国各经济部门的高管广泛相关。以下是一些要点。

  1. 与人工智能相关的诉讼预计会随着监管风险的增加而上升。

Littler 建议,要注意这些诉讼涵盖从隐私到就业法再到版权和商标侵权等问题。“美国正出现一个复杂的地方和州法律拼凑局面,”报告的作者写道。“在 2024 年的立法会议上,至少有 40 个州提出了与歧视、自动化就业决策等相关的人工智能法案。”

“高管们正在关注:近 85%的受访者告诉我们,他们担心人力资源职能中预测或生成式人工智能的使用会引发诉讼,73%的人表示他们的组织正因监管不确定性而减少为此目的的使用。”

  1. 积极迹象:近四分之三的组织制定了生成式人工智能政策的受访者要求员工遵守。

Littler 报告称,约十分之七的组织依靠“期望设定”来跟踪合规情况,超过一半的组织使用访问控制和员工报告。“鉴于关于生成式人工智能(实际上是所有人工智能)的培训和教育与成功的期望设定密切相关,值得注意的是,目前只有 46%的雇主提供或正在提供此类项目。”更多内容:

“然而,提供此类项目的组织中,高比例的组织在这些培训中包含了几个重要的部分,如人工智能素养、数据隐私、保密性和道德使用。”

  1. 与生成式人工智能相关的风险正在上升,尤其是因为该技术容易被员工自主使用。

Littler 发现,尽管如此,只有 44%的组织制定了员工使用该技术的具体政策。约 48%的受访领域认为风险感知低是他们缺乏涵盖这一问题政策的主要原因。

“风险感知低可能是可以理解的,特别是对于监管较少行业的较小组织。诉讼和监管执法行动的数量尚未达到高峰——尽管预计在未来几个月和几年内会发生变化。”

  1. 首席法务官(CLOs)和总法律顾问(GCs)不如首席执行官和首席人力资源官确信员工使用部分是其组织政策的一部分。

例如,Littler 发现,84%的首席执行官和首席人力资源官认为他们的政策包括员工审查和确认,而只有 57%的法律高管表示同意。此外,66%的首席执行官和首席人力资源官表示员工使用需得到经理或主管的批准,而首席法务官和总法律顾问中这一比例仅为 30%。

“这种不一致的部分原因可能是变化速度快。例如,法律团队可能在出现问题之前不参与政策制定——并且,根据组织的不同,可能不属于集中的人工智能决策小组的一部分。”

  1. 与人力资源相关的人工智能诉讼今天可能看起来不是一个重大风险——但这并不意味着明天不会。

“到目前为止,索赔主要针对软件供应商本身——包括在加利福尼亚州、伊利诺伊州和马萨诸塞州的集体诉讼——尽管随着更多组织将这些工具投入实践以及更多法规的建立,这种情况可能会改变。”

该报告可免费获取全文。

(全文结束)

大健康
大健康