6月12日,最高人民法院发布6个典型案例,旨在加强对利用网络、信息技术侵害人格权的否定和整治,强化人格权司法保护力度。其中,“殷某某诉甲公司、乙公司等人格权纠纷案”“彭某某诉某软件运营公司肖像权纠纷案”均涉及利用AI技术侵权的问题。
近年来,互联网和AI技术快速发展的同时,由此引发的侵害人格权案件也日渐增多。对此,各地法院积极探索相关裁判规则,通过案件裁判为新业态、新技术划定应用边界,结合社会治理撑起人格权的法律保护伞,让群众的人格权益得到充分尊重和保护。
划定人格权保护红线
2024年4月,北京互联网法院对“殷某某诉甲公司、乙公司等人格权纠纷案”进行一审宣判。被告使用原告声音,并开发案涉AI文本转语音产品未获得合法授权,构成侵权,法院判决其书面赔礼道歉,并赔偿原告各项损失25万元。
本案中,人民法院依法认定,声音作为一种人格权益,具有人身专属性,未经权利人许可擅自使用或许可他人使用录音制品中的声音构成侵权,为新业态、新技术的应用划定了行为界限,有助于规范和引导人工智能技术沿着为民、向善的方向发展。
近年来,人民法院通过对一起起相关案件的审判,逐步明确AI技术在利用数据信息时有所为、有所不为,确保人格权益保护红线“划得实、守得住”,彰显了人民法院的司法担当。
2022年4月11日,最高法发布民法典颁布后人格权益司法保护典型民事案例,其中有一起涉及AI软件擅自使用自然人形象创设虚拟人物构成侵权的典型案例。
被告运营的一款智能手机记账软件中,用户可自行创设或添加“AI陪伴者”,可设定其名称、头像等,并设置了“调教”功能,用户可让“AI陪伴者”与自己产生互动。
本案原告何某系公众人物,未经其同意,该软件出现以原告姓名、肖像为标识的“AI陪伴者”,并通过算法应用,允许用户上传大量原告的照片,制作与原告互动的内容。
“被告不仅擅自使用了原告何某的肖像、姓名,更通过算法构建其性格、口头禅等‘人格画像’,我院认定该行为属于‘系统性剥夺自然人对自身人格形象的控制权’,应当适用一般人格权加以保护。”北京互联网法院综合审判三庭法官毛春联说,此案中,AI技术的“非中立性”逐渐显现,技术服务与内容服务的区分界限被打破,当前不少网络服务者虽然只提供AI技术,却以“技术服务”之名行“内容服务”之实。
为查明AI技术侵害人格权益的涉案技术的基本原理、设计逻辑、运行过程,北京互联网法院建立了技术调查官制度,通过技术调查官对AI的专业解读,确保法官准确理解技术,作出公平裁判。
据杭州互联网法院法官赖粤旭介绍,AI技术的开发和应用应符合人类社会基本的道德价值体系,使用者一旦选择将AI技术用于侵害他人合法权益,法院就可根据被侵害主体所主张的侵权者,进一步通过查明侵权账号的实名注册者、实际控制者等方式,判定被侵害主体所主张的对象是否为侵权主体。
促进AI技术规范使用
2023年5月,上海易某网络科技有限公司开发了一款某短视频平台小程序“某颜”,使用AI视频合成算法帮用户实现“一键换脸古风汉服”。陈女士在某短视频平台上刷到这款小程序,发现里面有十余条自己的古风原创作品,随后向上海市嘉定区人民法院起诉。
诉讼中,易某公司意识到相关行为可能构成侵权,主动履行了相关AI算法备案手续,重新上架小程序。嘉定区法院发出司法建议,提示企业强化依法经营意识,注重素材合法性审查、内容生成合法性审查等。易某公司积极响应,认真整改,承诺将规范经营。陈女士最终撤回起诉,双方达成和解。
为平衡好技术创新与人格权益法律保护的关系,人民法院积极发挥职能作用,引导相关企业在AI技术应用中树立守法意识,推动行业自律,构建良好有序的AI发展生态。
“我院在相关案件的处理过程中,会综合考虑行为人和受害人的职业、影响范围、过错程度,以及行为的目的、方式、后果、事后采取的措施等因素,合理认定技术开发和应用企业应当承担的民事责任,在充分填补权利人损失的前提下避免因过度苛责抑制创新发展。”广州互联网法院相关负责人说。
同时,各地法院积极与多方主体合作,力求在保护人格权益的同时,促进AI技术的规范使用。
北京互联网法院多次赴互联网头部企业调研,组织专家学者进行座谈研讨,深入了解产业发展情况,探讨AI技术的法律边界与伦理规范,推动企业建立自律机制;杭州互联网法院深入走访数字经济的头部企业,与相关产业的理论学者、实践专家开展专题研讨,从产业端学习研究当下AI产业的发展模式和发展趋势,聚焦AI产业的法律适用边界,积极引导相关企业加强AI技术研发与应用的风险防控机制。
针对AI换脸、AI合成声音等前沿侵权行为,北京、杭州、广州等互联网法院及时发布典型案例,树立裁判规则,明确行为界限,引导公众依法正确使用AI技术,增强群众保护自身人格权益的法律意识。
厘清公共与个人数据
“未来,生成式AI可能会引发隐私或个人信息泄露问题。大型生成式AI需要大量数据作为参数,AI产品的提供者在训练AI产品时很可能会运用大量没有合法来源的数据信息,这就可能带来一些侵害隐私和个人信息的新形式。”中国人民大学法学院教授王利明告诉《法治日报》记者。
“可以预见,在AI时代,人格权的客体可能会涵盖数字化人格表征,诸如对应实体人物的虚拟形象,这些虚拟人物形象的实体权利人可能会对其虚拟形象主张虚拟人格权益。此外,AI的发展需要大量公共数据的支撑,在公共数据的共享开放以及授权经营中,最核心也最复杂的问题就是如何厘清公共数据和个人数据,防止侵害个人信息权益和隐私权等个人权益。”成都互联网法庭法官吴婷补充道。
赖粤旭告诉记者,面对AI技术带来的新挑战,杭州互联网法院将进一步关注AI应用新业态,深化研究、探索新类型案件的裁判规则,确保相关案件中适用法律的公平性和准确性。
“我院将与相关部门形成合力,及时反映司法实践中发现的新情况,为规范AI发展贡献司法智慧,通过加强协作共治,共同减少和避免AI技术发展过程中出现的新风险。”广州互联网法院相关负责人说。
在王利明看来,随着AI运用的场景越来越宽泛,由此带来侵害人格权益的风险必须在法律上予以有效应对。
“一方面,不能因为新的AI技术可能引发侵害人格权益的风险而对AI服务提供者课以过重的责任,从而妨碍技术的创新。另一方面,也应要求服务提供者尽可能采取必要措施,例如将AI产生的信息明确标识,预防损害的发生和扩大。”王利明建议道。
主办:广东省法学会协办:南方新闻网