公司正在竞相利用人工智能的强大能力。其应用广泛多样。保险公司使用AI来替代行政管理成本并协助处理理赔。软件开发者将AI融入其企业产品中以增加价值。甚至律师事务所也开始涉足这一领域,利用AI进行研究和写作、客户通信和文件审查。
但在追求竞争力的过程中,公司也必须小心避免可能使其面临民事和刑事处罚的陷阱。每家使用AI的公司都应意识到与网络安全、保密性和合同要求相关的风险,这些问题已得到广泛报道。然而,在这个阶段,公司可能尚未充分认识到,如果其客户包括政府机构或合同,它们也可能面临《虚假申报法》(FCA)的曝光。
迄今为止,大多数涉及AI的联邦执法行动都符合传统的FCA案例:指控承包商对其出售给政府的产品进行了虚假陈述。在这些案件中,AI通常是出售给政府的软件或技术产品的一部分,通常用于军事防御或间谍活动,但支持这些指控的法律理论是传统的。尽管如此,这些案件还是明确提醒人们,虽然某些高管可能认为关于其软件功能的误导性陈述只是雄心勃勃的广告,但政府日后可能会将这些陈述视为对政府的欺诈行为。
然而,几乎可以肯定的是,政府的执法范围将超出涉及AI产品的传统FCA案件。今年9月,司法部宣布更新其《企业合规计划评估》(ECCP)。该指南用于联邦检察官确定公司在犯罪发生时合规计划的有效性,并可能影响解决方式、罚款金额和强制实施的合规义务。新的指南特别要求分析公司如何管理AI。这可能涉及以下几个方面:
- 使用AI和其他新技术相关风险的管理是否整合到更广泛的公司风险管理策略中?
- 公司如何遏制使用技术在其商业业务和合规计划中可能产生的任何负面影响或意外后果?
- 是否存在控制措施以确保技术仅用于其预期目的?
- 用于评估AI的人类决策基准是什么?
- 如何监督和执行AI使用的责任?
ECCP是司法部发出的一个明确信号,表明公司的AI项目正受到审查。当公司未能遵循政府的指导,而这些失败导致提交虚假索赔时,公司应预计会受到政府的审查和潜在的执法行动。
事实上,ECCP所预示的高度审查已经开始。政府已经对使用算法或AI建议诊断代码或治疗方案的医疗保健提供者采取了执法行动,这些建议最终导致向Medicare或Medicaid提交了不必要的医疗索赔。政府提出的一种较为新颖的理论是,即使有医生的干预判断,算法或其他软件的不准确建议仍可能导致虚假索赔。这一理论在美国诉Permanente医疗集团案(United States ex rel. Osinek v. Permanente Medical Group, 640 F. Supp. 3d 885 (N.D. Cal., 2022))中被一个地区法院接受,但尚未接受司法审查。
其他医疗提供者因使用AI建议后来被认定为不当的诊断代码,以及在AI软件建议重新评估先前诊断时未遵循建议,而触犯了监管机构。简而言之,政府期望公司会在适当的情况下使用AI减少Medicare索赔的金额,但也可能要求公司避免遵循会导致政府更高账单的AI建议。随着AI进一步融入医疗实践、工作流程和电子健康记录,公司必须极其谨慎,避免任何暗示软件不当影响了治疗医生的医疗判断的情况。
最后,重要的是要记住,政府也在使用AI来发现欺诈行为。随着政府越来越多地依赖算法和数据来识别潜在违规行为,公司应注意这些程序中的偏见。某些无害的行为可能被关注错误数据点的算法误认为可疑行为。这些不准确的算法可能使监管机构对缺乏实质性的案件产生虚假的信心。证明这一点的成本很可能由公司自己承担。
人工智能的到来已是不争的事实。它在经济市场中创造了强大的杠杆——这种力量可以带来利润,但也伴随着责任风险。如果公司有任何政府合同或收入来源,应仔细考虑实施AI产品的风险。从一开始就确保AI产品在受控环境中实施,如ECCP推荐的那样,可以帮助避免后续政府审查带来的成本和负担。
(全文结束)


