AI不会取代医疗保健开发人员:人为因素仍然至关重要
由Mike Rispoli(Cause of a Kind的联合创始人兼首席技术官)撰写于2025年1月28日
快速发展的AI引发了关于其可能取代开发人员的讨论,特别是在医疗保健行业,创新和效率至关重要。然而,尽管AI工具可以自动化特定任务,但它们无法替代熟练软件工程师的专业知识、直觉和以安全为重点的方法。就像iPhone让每个人都成为摄影师,但并未取代专业摄影师一样,AI增强了工作流程,但并未消除对人工监督的需求。
根据2024年第一季度麦肯锡医疗和AI调查,超过70%的受访者(包括支付方、提供方和医疗保健服务和技术[HST]集团)表示他们正在追求或已经实施了生成式AI能力。
在医疗IT中,系统管理敏感数据并要求精确、确定性的结果,人类开发人员的角色变得更加重要。在效率和隐私之间找到平衡至关重要。以下是医疗保健领导者在这一微妙交集中需要吸取的一些关键教训。
AI提高效率,但开发人员构建安全、合规的系统
AI工具擅长自动化重复性任务,如数据提取、系统监控甚至部分诊断。虽然这加快了工作流程,但这些效率依赖于只有人类开发人员才能构建的安全、架构良好的系统。开发人员提供了远见,确保医疗IT基础设施遵守行业法规(如HIPAA),同时保持灵活性以适应新兴需求。
与其他行业不同,医疗保健无法承受系统故障或漏洞带来的风险。没有强大的工程基础,AI采用可能会暴露漏洞或创建缺乏长期可行性的系统。熟练的开发人员确保AI工具安全集成并符合监管框架。
AI的非确定性对医疗系统构成风险
在医疗保健中,确定性结果至关重要。AI系统,特别是大型语言模型(LLMs),依赖概率输出而非可预测的线性响应。虽然AI可以分析模式并辅助诊断,但它无法替代临床决策、计费或患者数据管理所需的可靠性。
考虑过度依赖AI进行诊断的后果。即使是很小的错误——无论多么罕见——都可能导致误诊、治疗延误或患者伤害。开发人员带来了将AI解决方案集成到系统中而不损害医疗系统所需确定性可靠性的批判性思维。
对于医疗数据,安全性不容妥协
医疗数据是最敏感的信息之一。将患者数据输入AI系统,尤其是LLMs,会引发重大的患者隐私问题。许多AI工具保留数据以提高性能,从而增加了第三方泄露或意外泄露的风险。如果没有适当的安全措施,组织可能会无意中暴露个人身份信息(PII)或受保护的健康信息(PHI)。
传统的医疗系统设计得高度可审计。发生数据泄露时,公司可以追踪数据何时、何地、如何被泄露。现代AI系统缺乏这种透明度。涉及LLM的泄露事件可能产生不可预测的影响,追溯此类事件的起源将困难得多。
为了减轻这些风险,医疗保健领导者必须实施明确的AI政策,说明如何使用AI工具、哪些数据可以输入系统以及开发者和供应商如何管理和存储敏感信息。
Web3警示故事——没有监督的炒作
FTX的崩溃和Sam Bankman-Fried的倒台为采用变革性技术而没有足够保障的行业敲响了警钟。在Web3中,不受控制的炒作、治理不善和过度承诺导致信任丧失,使行业倒退数年。
医疗IT无法承受类似的局面。如果发生AI相关的安全漏洞(特别是涉及敏感患者数据的漏洞),可能会引发限制性立法,阻碍整个行业的创新。开发人员充当防止此类失败的守护者。通过应用技术纪律,业务领导者可以朝着负责任且注重长期稳定的AI解决方案努力。
对于医疗保健领导者而言,教训是明确的:过度依赖AI而无人类问责可能会带来灾难性后果。平衡是关键。
以人为本的AI开发对增长至关重要
AI在医疗保健中的最佳实现是那些由人类开发人员在指导、构建和监控系统中发挥核心作用的情况。开发人员确保AI解决方案符合安全规定并能提供可信的结果。
通过深思熟虑地整合AI,开发人员赋能医疗组织简化工作流程、改善和增强患者护理,同时不牺牲安全性和可靠性。
医疗保健领导者必须继续投资其开发团队,确保他们具备将AI负责任地纳入的能力。这意味着培养一种文化,在这种文化中,AI工具被视为合作者而不是替代品,并为团队配备平衡创新与风险管理所需的培训。
医疗保健开发人员仍然是不可或缺的
AI正在改变医疗IT,提供巨大的潜力来自动化工作流程、提高效率和支持更好的患者结果。然而,开发人员仍然是安全、合规和创新系统的基石。
正如我们在Web3的快速繁荣和萧条中看到的,技术本身从来不是答案。人类的创造力、技术专长和责任感对于引导新兴技术(如AI)至关重要。医疗组织必须在利用AI优势的同时,保持开发人员不可替代的角色,以实现可持续的人类主导增长。
(全文结束)


