尊敬的同事们和朋友们,
由于我仅是一名IT学院的学生,尚未参与任何严肃的IT项目。然而,我希望我的学生会员身份能允许我与资深专业人士分享我的观点,从而加入关于AI问题的广泛而建设性的讨论。在过去几年中,基于AI成果的技术和谐发展话题引起了大家的广泛关注。为了了解这项技术当前的发展阶段及其被社会和政府的接受程度,我参加了很多线上活动(包括非常有启发性的ACM Talks网络研讨会),阅读了专业和商业媒体上的数十篇文章,研究了欧盟、美国和联合国关于AI问题的法规。
然而,我没有看到或感受到这种集体探索已经使发明者、商界代表、IT专家以及当前和未来的AI产品用户之间在AI发展方面的观点趋于一致。作为一名未来的信息技术专业人士,我希望看到更少的对抗和更多的团结,以应对全球技术突破。作为一名成熟的法律专业人士,我认为现在是一个重要的时刻,从完善与AI合作的原则转向制定和实施(某种程度上是主动的)具体的AI产品实施方案,以及建立公平和负责任的社会和法律后果监管机制。在此背景下,我提出以下两个方面关于AI技术的发展和实施的观点:
- 确定接受AI工具包医疗干预人员的法律地位
在发展**《共生原则:自然生命与生活AI》**(特别是由长期人工智能中心提出的,部分体现在欧盟、美国和联合国采纳的基本AI法规中)的基础上,我建议考虑细化和开发以下人员的法律地位:其中枢神经系统(自愿或出于医疗原因或职业要求)以任何形式(使用任何AI工具)受到:
- 矫正措施;
- 间接或定向管理。
为了规范这种对人中枢神经系统的影响所产生的社会和法律后果——既保护个人,也保护与之互动的社会成员——建议确定这些人的法律地位如下:
§ 具有混合神经系统结构的人(混合人类)——指中枢神经系统(自愿或出于医疗原因或职业要求)以任何形式(借助任何AI工具)受到:
- AI工具的矫正影响;
- AI工具的间接或定向管理。
在这种情况下,影响的目的(无论是善意还是恶意)并不重要——重要的是对人中枢神经系统的影响事实或风险/威胁;
- 僵尸因素——指具有混合神经系统结构的人(混合人类)处于无法控制自己的行为(思想、言语、肌肉活动)并且在“僵尸因素”状态下经集体专家意见确认的行为不承担物质或其他责任的状态。
- 设立保险基金以促进发明者、制造商、所有者和AI工具用户的共同参与
为了规范旨在影响人类中枢神经系统的AI工具的创建和实施所产生的物质和其他法律后果,建议定义AI工具的公共提供条件,以及非营利性和商业推广条件如下:
§ AI工具的实际实施——任何(公平或恶意)出于个人、职业、政府或公共目的的AI工具使用,无论是在商业还是非商业基础上;
- AI工具实际实施的条件——通过(包括通过建立或购买保险政策)参与AI工具的共同责任保险基金(包括具有混合神经系统结构的人);
- 发明者、供应商、所有者和AI工具用户的共同参与保险基金——旨在加速AI技术实施,确保其指数增长,同时保护人们和社会免受使用AI工具带来的负面影响的发明者、制造商、所有者和用户(包括具有混合神经系统结构的人)的责任保险基金。
显然,这样的方法有助于消除偏见和歧视,同时促进AI工具和具有混合神经系统结构的人的法律适应。当然,所提出的建议只是供专业社区讨论的概念性建议草案。
再次感谢您的邀请,感谢您对我观点的关注。
标签:* AI * 混合人类 * 未来 * BCI * 健康护理 * 保险
专栏:* 未来已来 * 商业模式 * 人工智能 * IT研究和预测 * 科普
(全文结束)


