AIGC是否受著作权保护存争议 对话“AIGC平台著作权侵权全球第一案”律所联合创始人:业界正探讨“合理避让原则”

2024-05-22 21:57:18 来源: 每日经济新闻

  当地时间5月21日,欧盟理事会正式批准《人工智能法案》。

  该法案经欧洲议会批准并经欧洲理事会主席签署后,将于近日在欧盟官方公报上公布,并在公布20天后生效。

  以大模型为代表的人工智能发展热潮,在给我们带来便捷与红利的同时,也对现有法律体系带来挑战。对普通人而言,AI生成的东西可以直接使用吗?有没有侵权风险?AI虚拟人发表不当言论,该由谁来负责?

  围绕这一系列问题,《》(以下简称NBD)记者近日对“AIGC平台著作权侵权全球第一案”代理律所浙江垦丁律师事务所联合创始人欧阳昆泼进行了专访。

  AIGC是否受著作权保护争议较大 现有判例互相矛盾

  NBD:先请您谈谈对AI生成作品版权归属问题的看法,我们平时工作中也会用到大模型,但有一个疑问:它生成的东西可以直接拿来用吗?

  欧阳昆泼:关于AIGC的知识产权问题,目前在全世界范围内纠纷非常多,中国已经有了几个判例,国外目前还没判。

  AI生成的作品到底受不受著作权保护,这里面争议很大。有三个要点:它能不能构成作品;它受不受著作权保护;核心是以人的作品为中心,还是以作品为中心。

  我国的著作权法规定构成作品有三大要素:一是它保护的是表达,不是思想;二是要有创造性;第三个要素现在争议很大,到底是不是必须得是人的智力成果才行。

  AIGC符合前两点,但对它是不是属于人的智力成果则有很大争议。因为现在著作权法没有直接说必须是人的智力成果才能受著作权守护,这是我们通过逻辑推导出来的,比如说权利必须嫁接在人上面才有意义。

  举例来说,美国发生了一个大猩猩拿照相机拍照的案例,争议点就在这张照片到底能不能形成作品?就算形成作品又能怎么样?有人侵权它了,难道大猩猩要起诉吗?所以动物或者机器没有权利诉求,那么保护它的权利就没有意义。在这样的前提下,就得出了著作权保护的必须是人的智力成果。

  目前世界范围内绝大部分国家都不认为AIGC属于人的作品。美国版权局驳回了一个文生图的版权登记,核心争议点就是文生图是不是人的直接智力成果。人借助照相机拍照,相机受人控制,但是AIGC不能直接控制人的成果,成果跟人之间是间接关系,它是大模型自己理解提示词后生成的内容。

  所以美国版权局给了一个形象的比喻。这就好比某个客户找一个艺术家帮他画某种风格的画,会提出很多要求,但作品还是直接由艺术家产生。所以美国版权局驳回了它的版权登记。

  目前欧洲、美国都还没有判例来支持文生图是受著作权保护的。但是,不受著作权保护,不代表它的权益不受保护,这是两个概念。比如数据权属也有争议,数据是平台收集的,到底是平台的数据还是我们用户的数据,但是平台在收集过程中还是可以有经济效益,如果你随意侵权,还是可以追究平台的法律责任。

  中国目前已经出现了一些判例,但其中有互相矛盾之处。比如关于腾讯的判例,腾讯研发了一个软件,用户把数据导入进去后可以生成一篇股评文章,但生成的文章被另一家公司抄袭,腾讯随即起诉对方公司构成知识产权侵权,法院判决认为构成侵权,构成侵权的要点是该作品直接体现了创作团队的智力成果,作品属于腾讯集体创作,属于公司法人作品。

  这里面分析的要点是:人的参与体现在两点,即软件开发灌输了腾讯研发团队的智力;同时,对于软件生成的文章,比如文章结构、结论、调用哪个数据,是创作团队作了很多参数安排的,倾注了创作团队的思想。

  不过这个判例引起了比较大的争议,后面出现的另一个判例相当于又推翻了这个判例。一家律师事务所自己的写作软件生成的文章被百度使用,百度被起诉了,但百度胜诉了,理由是虽然软件生成的文章有创造性,但它是机器的智力成果,不应受著作权保护。

  AIGC侵权判定存在利益平衡问题

  NBD:能否详细谈谈您所在律所代理的AIGC平台侵权第一案?

  欧阳昆泼:今年我们律所办了奥特曼侵权的案子,最高人民法院也把它作为AIGC平台侵权第一案。

  我们当时代理的是奥特曼IP知识产权方,权利方发现有一个文生图模型大量收集市面上的奥特曼IP数据,但使用该平台的人众多,所以当时考虑起诉平台,因为平台在训练和后续使用过程中都存在未经授权的问题。

  在使用该模型时,只要有一个提示词提到“奥特曼”,就会生成一张奥特曼的图片,其中一些图片跟权利方基本上一模一样,这就涉及侵犯复制权问题;另外,因为有些提示词会修改,它生成的奥特曼就会改编,但是也能看出来是奥特曼,这就涉及侵犯改编权的问题。

  最终法院判决平台在训练过程中,未经权利人许可使用其数据,构成侵权。我国相关法律规定,平台有注意义务,其中就包括一些训练数据来源必须获得授权,如果有用户去输入相关提示词(比如“奥特曼”),平台有屏蔽义务,提示这个词涉及侵权,否则就构成侵权。

  回归到著作权问题,核心还是在于平台未经授权使用数据能否构成合理使用。因为如果是合理使用的著作权,是可以作为抗辩理由的,学习、科研都是合理使用范畴,目前美国、欧洲也都在探讨合理使用的边界,但是非常难。

  因为这些大模型在训练过程中,虽然一开始是免费,但实际上到最后都是要进行商业化使用,所以很难以学习、科研等理由归入合理使用范畴。

  虽然案件是我们办的,但我们还是要检讨,这个案件的判决其实对AI行业发展还是有一些不利影响。如果严格要求一定要授权,一是会产生公平竞争问题,经济实力越强的人,买的数据就越全面,经济实力差的人在竞争中就会落后,这其实对行业有伤害;二是会产生偏见问题,如果有些模型数据不授权,就会造成输出结果不一样,可能会有很大的偏见。

  但是如果训练数据不需要授权,大家都合理使用,权利方又认为智力成果不受保护,所以其中的利益平衡非常难。当然,目前规则也还没定,我国也很注重利益平衡问题,可能未来一些新的判例又会把这个案件的判决推翻。

  业界正在探讨合理避让原则

  NBD:设想这样一个场景:两个人都用同一个大模型来生成一篇文章,他们的提示词可能不同,但最后生成的内容有一部分是相同的,这个内容会构成抄袭吗?如果是抄袭,是抄袭谁?或者说谁在抄袭?

  欧阳昆泼:大模型不像以前的简单工具,在提示词和生成结果之间有一个很长的过程,这个过程是一个黑洞,我们都不知道它生成这样一个东西的原理是什么。

  所以如果两人输出的内容有相似之处,到底这个权利属于谁?这又回到第一个话题。

  目前除了我国有相关的判例以外,其他国家都不认可AIGC属于著作权保护范畴,不形成作品,就不存在著作权问题。美国、欧洲很多案件都是以私下调解来结案,那些大法官很谨慎,他要做判决必须得论证利益平衡问题,对未来发展问题考虑得非常全面,所以目前暂时还是搁置不谈。

  但就我国的情况而言,因为目前几个法院判决结果不完全一样,如果按照AIGC属于作品的逻辑,那因为这两人都是独立创作,这时候两人互相不构成侵权,但如果有第三方再进行使用,这两人都可以共同起诉。

  另外,现在学术实践有探讨一个合理避让原则。比如美国版权局现在也在考虑,人是通过AI这个工具产生这个作品,属于智力成果这部分应当受保护,如果是AI普适性则不受保护,但这个边界也不容易区分。现在美国版权已经放开了,如果是版权登记,会让用户区分出哪些跟智力成果直接相关,这部分受保护,如果不相关就不受保护。

  所以如果两人生成的内容有相同部分,说明这部分内容是几个平台普适性、共适性的内容,属于AI自己共同数据训练出来,就不属于创作者的智力成果,不属于就意味着不受保护,美国版权局已经开始做这个规则了。

  从学术探讨角度而言,知识产权法本来就是人类文明的一个基石,如果处理不好对大家创造的伤害很大。近年来我国越来越重视知识产权,我们的方向也是会严厉打击侵权行为。

  平台使用虚拟人形象、声音需经过授权

  NBD:前段时间京东集团董事局主席刘强东AI数字人下场直播,引发广泛关注。如果AI数字人或虚拟数字主播被用于恶意目的,怎么来追责?

  欧阳昆泼:目前追责还是从使用者角度来入手,其中包含几个主体,比如谁制作的、谁传播的,而平台的责任就类似于互联网领域的避风港原则和红旗原则。

  比如有人利用我的形象产生侵权行为,并发布在某一个平台上,那么制作的人肯定构成侵权。但这个平台也有审核义务,它适用两个原则,即避风港原则和红旗原则。避风港原则指的是平台不一定能所有都审核到,但如果有人投诉,平台要负责下架。就像如果电商平台上有很多假货,它有投诉平台,一旦被投诉平台只要下架就不构成侵权,就不会产生法律责任,否则需承担连带责任。

  红旗原则指的是如果明显存在违法,平台事先就有屏蔽义务。比如有人把明星的脸拿去涉黄,这是很明显的侵权行为,平台必须事先做一些合规动作,比如通过AI审核工具进行关键字屏蔽,合规人员检查等,平台有义务去加强监管。

  NBD:AI虚拟人说的话可以当成是真人本人说的吗?

  欧阳昆泼:现在有很多公司在做虚拟人,很多电商平台也都在利用AI虚拟人带货。目前法律对这方面还没有明确规定,我们只能从原有框架去探讨。

  首先,必须保证AI虚拟人是经过授权的,比如使用你的形象、声音,就要经过你的授权。

  其次,平台有披露义务,不能故意隐瞒。比如直播给观众看,就要明确告知并非真人直播,如果是使用明星的形象、声音,也要提示是经过授权。

  如果使用了知名人士的声音和形象,而不披露是虚拟人,会对观众造成误导,观众会以为是真人本人,这样一旦虚拟人发表了不当言论,其名誉权有被侵犯的风险,作为权利方是可以起诉的。实际上目前有很多平台是故意来误导用户,不进行披露,是存在法律风险的。

  NBD:那对形象或声音的授权方来说,如何避免法律风险?

  欧阳昆泼:那就要事先签订责任协议,明确权利义务边界,我只提供我的形象、声音,播出内容与我无关,内容要使用方来承担责任。同时,使用方还要进行披露,避免误导观众。

  NBD:在这种情况下,如果AI虚拟人发表了一些不当言论,本人就不用承担责任了?

  欧阳昆泼:对,那就是使用者的责任了。我国对直播内容有明确要求,必须要内容合规,不能涉黄等,如果虚拟人发表了不当言论,也要看是主观故意还是技术原因,技术原因也可以鉴定出来到底是不是在训练时恶意或故意诱导,根据过错情节来承担相应法律责任。

  AI的发展会对现有法律体系和监管机制带来挑战

  NBD:AI的发展是否会对现有的法律体系和监管机制带来挑战?

  欧阳昆泼:我认为是带来了比较大的挑战。我们律所写了一本书叫《无技术不法律》,法律实际上是上层建筑,因为技术是第一生产力,这些规则都跟技术相关。

  封建时代是没有公司法、知识产权法的,甚至民法和商法也没有,有的只是一部刑法。到工业革命之后产生这些法律,是因为底层技术变了,产生公司、组织等。到互联网时代,又出现了数据法、网络安全法、电商法等。

  这些法律都跟技术相关,有什么样技术就有什么样的法律形态。人工智能如果继续普及,很多底层逻辑也要发生变化,相应的法律也会进行调整。

  目前业界都在探讨,如果人利用AI诈骗,到底是抓设计工具的人还是使用的人,该怎么区分他们的责任,已经产生很多法律问题;包括知识产权到底构不构成著作权,是以著作权体系框架来保护还是设置一个新的权利体系来保护,这些都是新出现的问题。

  NBD:我国目前还没有专门的人工智能法?

  欧阳昆泼:我们有一个《生成式人工智能服务管理暂行办法》,但因为也是才发展起来的产业,还没有形成大法。

  NBD:要形成您说的这种专门大法,它需要有哪些要点?

  欧阳昆泼:目前欧盟正式批准《人工智能法案》,我国如果要形成这种法律规定还需要产业发展到一定程度,产生很多案例和丰富的应用场景,“一个案例相当于一千篇论文”,很多时候是从实践去推动立法,案例达到一定的量,规则边界越来越清晰,就会有形成一个法典的基础条件。

  民法典之所以近几年才产生,是因为以前很多场景不具备,所以以前都是单行法,只有在不断实施过程中产生更多场景、案例,才有素材来制定一部适合我国国情的法律规定,否则照搬别人的东西就是空中楼阁。

  当然,我国的数据安全法借鉴了很多国外的内容,这就需要在施行过程中不断调整来符合我国国情。而数据安全法之所以出台,是因为我们有数据出境方面的问题,涉及国家安全,必须马上出台,否则无法可依,并且可能会被美国、欧盟找到漏洞去侵害我国的数据权利。

关注同花顺财经(ths518),获取更多机会

0

+1
  • 威尔高
  • 东晶电子
  • 中亦科技
  • 剑桥科技
  • 东田微
  • 北京科锐
  • 先锋电子
  • 崇达技术
  • 代码|股票名称 最新 涨跌幅