在心理健康阴影下监管人工智能
Regulating Artificial Intelligence in the Shadow of Mental Heath
一篇由美国心理学会(American Psychological Association, APA)开展的研究表明,报告过度使用社交媒体的青少年中有41%存在心理健康状况不佳的问题,而在使用社交媒体频率较低的青少年中这一比例仅为23%。这些数据凸显了学者和政策制定者日益关注的一个问题:由人工智能(AI)驱动的社交媒体技术与心理健康之间的交汇点。
在最近出版的一本书章节中,雅盖隆大学(Jagiellonian University)法学副教授普热梅斯瓦夫·帕尔卡(Przemysław Pawlak)分析了欧盟《人工智能法案》(Artificial Intelligence Act, AIA)及其对心理健康可能产生的影响。该法案为欧盟人工智能监管提供了法律框架。帕尔卡引用了多项实证研究,这些研究将社交媒体、聊天机器人和电子游戏等AI驱动产品与用户心理健康不良影响联系起来,并强调在AI立法中必须考虑心理伤害问题的紧迫性。
帕尔卡指出,将心理健康纳入《人工智能法案》监管范畴有两个关键动因。首先,法案在谴责某些AI使用方式时提到了“心理伤害”(psychological harm),这表明立法者有意将心理健康纳入法案的考量范围。其次,作为首个横跨多个行业和领域的AI监管法规,《人工智能法案》可能成为其他国家政府监管AI技术的模板。因此,他敦促立法者和学者对法案条款进行严格审查,以确保其监管框架的严谨性。
为提供背景,帕尔卡解释称,《人工智能法案》是欧盟更广泛产品安全立法的一部分。该法案采用分级监管框架,根据风险程度将AI应用划分为四个等级:不可接受、高风险、有限风险和最低风险。
他指出,监管重点主要集中在高风险系统上,例如生物识别身份识别和执法工具。然而,许多对消费者影响重大的AI系统——如内容审核、广告投放和价格歧视系统——并未被归类为高风险系统,因而未受到监管。即便某一AI服务被归类为“高风险”,帕尔卡也警告称,《人工智能法案》仅在非常有限的情况下才会介入。
帕尔卡解释称,《人工智能法案》第5条列出了被禁止的AI使用方式。该法案禁止使用潜意识技术扭曲用户行为或利用用户在年龄或残疾方面的脆弱性。然而,他强调,只有在服务提供商实际造成了可证明的心理伤害时,才承担法律责任。他认为,尽管违反该法案可被处以高达3000万欧元或年营业额6%的罚款,但这些处罚几乎无效,因为法案未能明确定义“心理伤害”的具体含义。
更糟糕的是,帕尔卡指出,目前在临床领域对“心理伤害”的定义仍缺乏共识。一些学者将其等同于严重的心理痛苦或创伤,而另一些人则认为心理伤害包括恐惧、悲伤或成瘾等情绪或状态。他警告称,由于《人工智能法案》缺乏明确指导,定义“心理伤害”的责任可能会落到那些有经济动机淡化其重要性的私营实体手中。
因此,帕尔卡建议政策制定者应更多关注预防性心理健康保护,而非纠结于事后对心理伤害范围和含义的界定。他主张应采用“良好心理健康”(good mental health)的标准,对可能造成心理伤害或引发心理问题的技术进行监管。
帕尔卡补充说,主流精神病学界已经提供了“良好心理健康”的明确临床定义。他引用了世界卫生组织(World Health Organization)广为接受的定义,即“良好心理健康”是指“能够应对压力、富有成效地工作,并为社区做出贡献”。他指出,心理健康风险包括所有可能增加心理障碍发生概率的互动行为。例如,应对压力能力下降、工作效率降低或社区参与受阻等,都是帕尔卡列举的心理健康下降或可能发展为心理障碍的信号。
如果政策制定者采纳这一替代标准,帕尔卡认为,那些被证实会降低认知功能的算法产品——例如设计成让用户沉迷的应用程序——将在其造成实际伤害之前被禁止或受到处罚。简而言之,他主张以“心理健康”为标准,使《人工智能法案》更具约束力,从而在早期阶段更好地保护用户。
然而,帕尔卡也承认,要彻底改造现有的《人工智能法案》框架将极其困难。他提出了几种替代性——尽管并不完美——的政策建议,可在现行标准框架内实施。
首先,他解释称,《人工智能法案》可以简单地扩大“高风险AI系统”的分类范围,将内容审核、广告投放和价格歧视等应用程序纳入其中。
其次,他建议政策制定者可以根据AI系统可能造成的心理伤害严重程度来定制限制措施——前提是能够对“心理伤害”进行明确定义。例如,他认为那些可能导致饮食失调或自残行为的AI系统应受到比导致网络成瘾的系统更严格的监管。对于后者,可通过年龄限制或类似香烟和酒精产品的强制性警告来缓解其影响。
最后,帕尔卡质疑是否应通过专门针对AI的法规来制定政策。他认为,或许通用的侵权法或消费者保护法会更有效。然而,他警告称,法律判例存在固有限制。根据现有判例,法院对身体伤害已有大量分析,而心理伤害——直到最近以前——仍未受到足够重视,并长期受到社会污名化的困扰。
尽管《人工智能法案》是监管AI的重要一步,但帕尔卡认为,其当前条款在应对消费者心理健康的关键风险方面仍存在严重不足。他指出,由于未明确界定“心理伤害”的含义、将关键AI应用排除在高风险分类之外,以及对关键条款使用模糊定义,《人工智能法案》在其监管框架中留下了重大漏洞。他呼吁政策制定者抓住当前公众对AI监管呼声日益高涨的契机,制定更加有效和全面的解决方案。
【全文结束】
声明:本文仅代表作者观点,不代表本站立场,如有侵权请联系我们删除。
本页内容撰写过程部分涉及AI生成(包括且不限于题材,素材,提纲的搜集与整理),请注意甄别。