
眼下,近期AI屡屡呈现盗播进而仿冒名人带货情况,同时AI版权纠纷不断映入眼帘,生成式AI所引发的各类侵权问题已然直接展现在当面之上,并且这也致使执法司法环节遭遇了诸多全新挑战。
论坛聚焦AI侵权治理
去年12月18日,南方都市报社,联合南都数字经济治理研究中心,于北京举办第九届啄木鸟数据治理论坛。此次论坛,专门针对生成式人工智能的治理,以及侵权应对,展开深入探讨,吸引了将近百位法律界的从业者,还有科技界的从业者,到场参与。
于论坛现场之中,身为中国法学会副会长的中国人民大学一级教授王利明,就生成式人工智能的侵权以及应对这一主题,来开展主旨演讲发出言辞,并且结合当下国内AI产业的发展实际情况,给出了具备务实性质的治理思路。
专门立法时机尚不成熟
目前,国内AI产业处于快速升涨的时期,人工智能已渗透至生产制造、日常服务以及社会治理的诸多环节,人工智能与相关产业所形成的模式成为拉动经济增长的关键动力之一。不少业内的学者早些时候呼吁要尽快颁布专门针对性的AI侵权立法,以此跟上技术发展的步伐。

王利明清晰表明,现阶段专门立法乃为时尚早,其一,当前AI侵权多聚焦于隐私、个人信息以及知识产权领域,未对公众生命财产安全构成直接威胁,整体风险处于可控状态。其二,AI技术迭代速率极快,众多新场景新问题尚需充足时间予以观察总结,贸然立法反倒易因规则滞后而对产业创新发展形成阻碍。
在发展中规范是核心思路
关于AI治理的全球已有经验这件事,当下主流呈现为两种模式分开的状态,就欧盟而言,采用的是强监管模式,设置了数量众多十分严格的合规义务,一旦违规就极易引发侵权责任追究的情况。而美国呢,是那种轻监管且着重于产业利用的模式,开发者以及服务提供者所承担的合规负担相对较轻,侵权问题大多靠现有的侵权法去予以处理。

我国能够采用于发展进程里规范的思路,不必急切跳出现存的法律框架,民法典以及个人信息保护法等现有的法条早已涵盖了绝大多数相关权益之中保护的需求。后续能够借助积累典型的司法案例,一步步出台针对性的司法解释,便是能够一步步应对源源不断出现的AI侵权新问题。
过错责任适配AI侵权场景
如今,学界针对AI侵权归责原则的选择展开讨论,众多观点指出应当径直套用无过错责任,一旦AI系统所产出的内容致使损害发生,那么相关主体便需当即承担责任。这般思路表面上看似能够迅速保障受害者的权益,然而实际上极有可能性给整个产业施加过于沉重的运营负担。
选用适用过错责任才算是更为妥当的方案,将主体是不是违反相关注意义务当作过错判断的核心,不会给开发者以及运营者套上过重的枷锁。毕竟AI所提供的是服务并非实体产品,服务所产生的瑕疵不会如同劣质产品那般直接导致重大人身财产损害,没必要运用严苛的产品责任规则。
兼顾创新和权益保护需求
采用过错责任,可为AI开发留出充足试错空间,能让服务运营有此空间,可鼓励从业者放开手脚推进技术落地并完成创新,还能助力国内AI产业保持高速发展态势,使其不被过度严苛的规则拖慢脚步。
与此同时,这套规则不会对受害者的合法权益予以忽视,只要能够举证相关主体并未尽到合理的注意义务,那么依旧能够借助现有的法律渠道去主张自身的合法权益,以此达成产业发展以及权益保护的双向平衡。
深度伪造规则细化路径
聚焦于频繁发生的深度伪造侵权混乱状况,能够径直援引民法典第一千零一十九条的既有规则,借由细化该条款的适用情形,直接规范借助深度伪造技术对他人形象声音进行伪造以带货获取利益,诸如恶意诋毁他人名誉的侵权行径。
无需推出全新的专项性规则,只需将现有的法条依照结合AI新场景的方式做出合理的解释,便能够迅速填补当下深度伪造领域的治理空白,凭借最小的制度成本来解决最为迫切的现实问题。
当面朝着快速进行迭代的生成式人工智能,你认为现有的法律规则还需要优先去补充哪些具体的适用细则呢?






