德勤再次面临批评,因其为纽芬兰与拉布拉多省政府准备的医疗报告据称包含AI生成的事实性错误。据《印度斯坦时报》援引加拿大媒体《独立报》报道,这份价值160万加元的报告旨在评估该省医疗服务,却错误识别医院名称、提供不准确的设施描述,并包含明显不存在的引用来源。
这是咨询巨头近期第二次因官方报告中涉嫌使用AI生成内容而陷入争议。
对自动化工具依赖的担忧
仔细研读该加拿大报告的观察者指出,部分内容明显由AI生成。人工验证环节的缺失引发质疑,暴露出德勤质量控制流程的漏洞。这些研究结果本应用于指导省级医疗系统的政策制定——该系统正艰难应对人员短缺和疫情后遗症。此次争议重新引发了关于生成式AI在敏感公共部门工作中日益普及的辩论。全球范围内,政府和企业正加速采用自动化工具以降低成本并加快分析速度。然而专家指出,德勤反复出现的错误证明,未经严格管控的AI使用正侵蚀机构公信力与公众信任。
德勤的回应与重复性问题
德勤加拿大否认指控,坚称完全支持报告中的建议。该公司承认存在“少量引用修正”,但强调AI仅用于支持研究过程的有限环节,而非实际撰写报告。同时辩称这些修正不影响报告的整体结论。
然而,此次批评与今年早些时候澳大利亚事件如出一辙。8月,德勤因在福利系统审查报告中出现虚构法庭引述和不存在引用等类似错误,向澳大利亚政府退还44万澳元。该报告同样被标记为疑似AI生成文本。
延伸阅读:AI能否用于新闻报道?研究发现45%的回复具有误导性
监管机制的警醒时刻?
这两起争议引发广泛担忧,凸显出对纳税人资助项目承包商加强监督的迫切性,尤其当项目涉及AI工具使用时。随着公共部门机构日益依赖外部支持,而外部支持方又愈发倚重自动化工具,合同中的容错空间与问责 stakes 呈指数级上升。此次事件是否会最终促使全球各国政府重新审视关键公共政策工作中AI的监管方式?
【全文结束】


