英国演员和权益协会正在与人工智能驱动的深度伪造模组的崛起进行激烈争斗
The British actors and equity association are fiercely battling the rise of AI-driven deepfake modules.
“我的声音在mod和变声社区中有所存在吗?是的。我对我的声音用于什么有控制权吗?目前还没有。”
大卫·门金最近在《最终幻想16》中扮演巴纳巴斯·塔姆,此前还参与了《乐高星球大战》、《英雄联盟》、《刺客信条》等作品。与游戏行业中其他声优一样,他对人工智能的不断增加使用感到担忧。
“人工智能是一种工具,就像任何工具一样,它需要监管,”门金说道。”我们只是想知道我们的声音将被用于什么,并且能够在超出我们原始合同范围的使用情况下授予或撤回同意。如果我们的工作为你的人工智能工具带来了收益,我们希望得到合理的报酬。”
这确实是一个公平的要求。但许多人认为人工智能的监管远远落后于技术进步的速度,英国演员工会Equity现在正在采取行动来改变这一点。
人工智能在游戏开发中的使用已经成为一个重要的话题,正如Eurogamer的Chris Tapsell在GDC上报道的那样,特别是在艺术和剧本创作领域。对于声优来说,这带来了一系列的问题,包括使用演员的声音进行深度伪造而无需同意的令人担忧的趋势。
本月早些时候,天际mod制作者Robbie92_在一条推文中强调了演员们的声音被mod社区用于色情内容的问题。他写道:”作为天际mod制作圈的一员,我对使用人工智能语音克隆技术创作和传播非自愿深度伪造的色情内容感到深深担忧。”他还列出了受影响的表演者名单。
“他们的表演被恶意重新利用,被输入到AI克隆工具中,并用于创造这些表演者朗读具有色情性质的对话的深度伪造语音片段。我认为制作和传播深度伪造色情内容是无耻的邪恶行为,作为一个社区,我们有责任采取行动。”
一些声优对这条推文的回应似乎有些难以置信,似乎对他们的声音被使用并不知情。”什么鬼?!”《真人快打》声优理查德·埃普卡尔回复道。
这条推文特别指出了ElevenLabs,一个AI克隆工具,根据其服务条款,用户必须是所使用文件的创作者和所有者,或者拥有文件中每个可识别个人的书面同意。ElevenLabs未回复Eurogamer的置评请求。
显然,并不总是得到同意。
制作完成后,带有AI克隆声音的mod会被托管在流行的mod网站Nexus Mods上。当Eurogamer联系Nexus Mods时,我们被引导至一个4月份的文章,详细介绍了该网站对modding中使用AI生成内容的立场。
“如果作为内容创作者决定在你的mod项目中包含AI生成的内容,这不会违反我们的社区规则,”文章中写道。”然而,如果我们收到一个可信的投诉,声称您的作品对他们造成了损害,这可能是声优或拥有角色/资产权利的机构,我们将根据情况移除内容。”
“为了避免您的mod出现任何问题,我们建议您避免使用这些工具,除非您获得了使用所有资产的明确许可。这对于AI生成的配音尤其重要,但也涵盖了图像、模型、代码和其他可以使用这项技术创建的任何内容。”
但这将责任转移到了演员自己来争议未经许可的游戏mod中使用他们的声音,而不是目前的更广泛监管。
这就是英国演员工会Equity UK介入的地方。上个月,Equity发布了其”开创性的AI工具包,以保护演员免受不受监管技术的激增”。
该工具包是与知识产权专家Mathilde Pavis合作创建的,旨在规定”AI的道德使用”,并为艺术家提供执行他们的法律权利的模板。
此外,Equity呼吁政府紧急采取行动,反对其所称的”表演克隆”,定义为:”通过机器学习系统和等效技术录制、使用或复制艺术家的表演、声音或形象的过程”。
“Equity正在采取行动,并为我们的成员提供保护他们法律权益所需的工具。”
“随着人工智能在娱乐行业的应用日益增多,Equity正在采取行动,为我们的成员提供保护他们法律权益所需的工具,” Equity新媒体产业官员利亚姆·巴德说道。
“我们很自豪能够通过制定开创性的人工智能合同模板和制定新的行业标准来引领创新。虽然Equity将继续与娱乐行业的制片人进行合作,但政府需要采取强有力的措施来妥善监管人工智能的日益增长。”
2023年3月,知识产权局承诺在今年夏天为生成式人工智能制定一套实施准则。政府还在就创新方法的人工智能监管进行咨询,如最近的白皮书所述。
对于Equity来说,其工具包中的愿景声明制定了新的行业标准,其中规定艺术家有权:
- 就过去、现在和将来的演出事项(同意或不同意)
- 在个人非独占、有时限的基础上许可他们的表演或形象
- 被识别并反对对他们的表演和作品的贬低处理
- 透明信息
- 有意义的协商
- 公平和相称的报酬
- 平等的获取和待遇
- 根据集体谈判达成的协议从事工作
Menkin是与Equity合作提高这一领域意识的演员团队的一部分。
“去年,我们向UKIE提供了明确的例子,说明我们为什么需要全行业的监管、更新的版权法律、更清晰的知识产权框架和实践准则,但不幸的是,他们的回应并不充分,”他说。
自那时以来,在今年的Equity大会上提出了更加关注游戏和人工智能的动议,并以多数票通过。
“工作正在进行中,但立法需要时间,”Menkin说。“与此同时,我们需要接受教育,这就是为什么Equity发布了人工智能工具包,包括了解人工智能领域和我们的权利的指南,以及在客户和雇主的语言不够清晰时使用的合同模板。”
类似的举措也在世界各地推出,包括美国的SAG-AFTRA和全国声优协会(NAVA)。
Menkin坚决主张更加规范使用人工智能在游戏中的行为。
“我们往往被告知没有其他选择,只能将我们所有的权利都放弃,而且并不清楚我们的作品将被用于什么目的。”
“游戏和人工智能相信自我监管,”他说。“公司经常谈论多样性推动和实践准则,但这种自我监管很少有利于那些处于较低位置的人,尤其是演员、作家、作曲家等分包商。我们往往被告知没有其他选择,只能将我们所有的权利都放弃,而且并不清楚我们的作品将被用于什么目的。
“在人工智能时代,我们不能再接受这些条款。”
曾获BAFTA奖的声音艺术家简·佩里(Jane Perry),以她在《Returnal》和《Hitman》中的工作而闻名,同样认为需要一个管理机构来监督人工智能的使用。
“我知道Equity提供的支持。我认为他们在英国现有的立法框架内尽力而为。我们无法像我们的美国同行那样要求进行产业行动,”她说。
“我觉得虽然我们在合同中被告知要注意的事项,并在版权法等方面提供了一些指导,但我觉得缺失的是一种能够有效监督人工智能使用并监测其使用的管理机构。”
她补充道:“人工智能的使用速度超过了我们为其设定边界的能力。鉴于英国Equity资源的匮乏,他们无法扮演这个管理机构的角色。希望我们的政府能够迅速采取行动并提供帮助。”
佩里对人工智能的未来以及它对声优的意义表示担忧。她在游戏中与热情的社区互动的经历将消失,如果人工智能配音开始流行。
“作为一名演员,回答这些问题并解答在幕后发生的事情是一种乐趣,”她说。
“声音中有一个传记,听者可能也可能不知道。然而,那将不会是我。”
“我经常想,当‘我的’角色被AI生成的声音代替时,谁会回答这些问题呢?角色的选择和表达希望、恐惧和欲望的方式将不会受到我的亲身经历的影响。我将没有机会在自己的心灵深处寻找如何演绎一场戏,或者如何建立和回应游戏故事中建立的关系。”
“我似乎对角色的创造没有任何参与。然而,它将是我的声音,其音色与我整个生命中发生的一切相关。声音中有一个传记,听者可能也可能不知道。然而,那将不会是我。”
她补充说,AI“并不全是坏事”,适用于某些其他工作和行业。“但我们必须质疑这种吃掉自己尾巴的欲望,”她说。
“我明白利用AI玩耍和看到我们在玩弄人们的声音和面孔方面能走多远是有趣和令人兴奋的。但让我们清楚地认识到,剥夺人类的工作将会引发各种问题:其中之一是财务问题,另一个是失去目标感。我们已经看到了这一点。与此同时,已经臃肿的公司的利润率在增加。”
还有更多的工作要做。但是,Equity(演员工会)和其他工会开始意识到AI对演员所带来的真正危险。然而,在适当的监管得到执行之前,责任可悲地落在演员身上来保护自己。