安大互联
财经热点 > 财经资讯 > 郭德纲赵本山飙英语 - 有公司蹭流量卖服务 - AI换声暗藏侵权风险
【AI】郭德纲赵本山飙英语 - 有公司蹭流量卖服务 - AI换声暗藏侵权风险
浏览次数:【339】  发布日期:2023-11-3 18:34:24    文章分类:财经资讯   
专题:公司
 

  赵本山用英文演小品、郭德纲用英文说相声、范明用英文演戏……最近,多个中国“土味”明星开口说英语的视频引发关注。

  不仅有我国的明星飙英文,网络上也流传着很多外国明星用中文接受采访的视频,如泰勒·斯威夫特、安妮·海瑟薇等。有的甚至脱离了原本的内容,仅使用明星的脸,再加上创作者的声音和内容,直接让安妮·海瑟薇唱起了“东北rap”。

  新京报贝壳财经记者发现,目前已经有专业公司在提供AI换声服务,其中最火的企业当属一个名为HeyGen的企业。该公司在 9 月7日上线视频翻译功能后,在国外社交平台上迅速走红。这家公司靠免费试用揽客,排队人数众多,想要跳过排队或享受更多的服务则需要充值。

  也有公司在靠明星换声视频引流来卖AI换声服务:制作AI换声视频的单价为3元/秒,视频最少30秒,最长5分钟。

  值得注意的是,AI换声不仅存在着侵权等法律风险,这一技术还有可能被非法分子利用,成为AI诈骗的新手段。

  从熊猫阿宝秀中文到赵本山飙英语,AI换声是怎样以假乱真的?

  贝壳财经记者发现,这一系列视频的火爆首先来源于B站UP主“johnhuu”的视频《这才是没有译制片腔调的翻译!》,该视频发布于10月17日,截至11月3日已经有254.5万的播放量。后来被各类短视频账号广泛引用的“憨豆先生讲中文”“蔡明讲英文”等视频正是来源于该视频。

  在这一视频中,johnhuu表示,要达到此类效果务必同时符合三个条件:“第壹,地道的口语翻译;第贰,克隆说话者的声音;第叁,把嘴型换了。”

  而其实,上述三个条件均可以通过AI技术实现。

  首先,语言之间的互相翻译早已是一项成熟的技术,“机器翻译”已成为很多作品跨国流传最容易的渠道,国内腾讯、 科大讯飞 等均已推出此类同声翻译技术多年。

  而对于克隆说话者的声音,早在今年上半年AI孙燕姿爆火时就早已经有成熟的技术路径:创造出AI孙燕姿的AI音色替换技术,其来源为so-vits-svc模型,一款由中国歌声合成爱好者Rcell开发的AI语音转换项目,其技术原理是使用孙燕姿的声音“替换”其它歌手的干声,达到以假乱真的效果。

  在口型替换方面,早在2015年《功夫熊猫3》引入中国时,该片的主创团队就透露,该片的中文版本根据中文台词,给每个角色都重新做了口型和脸色,“因此,观众会觉得阿宝原本说的就是中文。”2019年,包含斯坦福大学、普林斯顿大学在内的多个研究团队也推出了能够编辑头部特写对话视频的机器算法,该算法会从其它视频中寻找人物讲话时的嘴部动作,生成新的视频。

  不过,AI配音视频要想完全和原视频取得一致,符合原视频时长、情景的翻译必不可少,对此,一个精妙的翻译也必不可少。

  11月3日,johnhuu告诉贝壳财经记者,此类AI配音视频里,翻译占90%,克隆声音和换嘴只是锦上添花,占10%。在其看来,相声小品这种有梗的句子,机器翻译不了。

  AI换声生意:有公司靠免费试用揽客,有公司靠明星换声引流,制作换声视频3元/秒

  与之相伴,AI换声生意也正在浮出水面。

  其实,目前已经有科技公司推出了将这三项技术结合的“打包翻译服务”,其中最火的企业当属一个名为HeyGen的企业。该公司在 9 月7日上线视频翻译功能后,在外国社交平台上迅速走红。HeyGen 的目标是“消除语言障碍”,公司联合开创人兼首席执行官Joshua Xu说:“我们设想在未来,用不同语言制作视频内容和流传信息,就像打字一样简单”。

  11月3日,贝壳财经记者登录HeyGen官方网站,发现该公司致力于使用文字直接生成虚拟人,而在其“视频翻译”功能中,用户可以通过上传一段不大于1GB大小的视频,并选择“想要翻译的语言”来实现AI换声功能。这项功能目前极其火爆,贝壳财经记者上午8点上传了一段视频,显示已进入排队等待序列,前方还有3.48万人,而当记者等待至11点25分时,前方排队的还有3.21万人。目前,每名用户可避免费试用两次视频翻译服务,但想要跳过排队或享受更多的服务则需要充值。

  根据HeyGen官方网站上的信息,仅从名字上看,公司的两名开创人Joshua Xu和Wayne Liang均为华裔,其中Wayne Liang的履历上还有“字节跳动美国公司前设计主管”的介绍。

  11月2日,记者还通过抖音平台,联系了一家使用明星视频进行AI换声的企业客服,对方表示,制作AI换声视频的单价为3元/秒,视频最少30秒,最长5分钟。客服称,该技术可将作者的原声视频进行中英语言互译。

  当记者询问是否可使用明星的视频来当作换声素材时,客服表示,“我不推荐你再用明星了,有版权问题的定 时炸弹。我们是靠这个引流来卖服务,我们自己也要调整。”同时,该客服表示,如果客户坚持要用明星素材,公司可以提供转换服务,但客户我需承担后续影响。

  客服表示,客户使用这一服务的目的不一,“有想要文化出海、出海卖货的,也有人只是为了好玩”,对于原视频的质量要求,该客服表示,“视频里面的人物嘴部不能遮挡,视频里面建议不要出现多人对话和画外音,也不要有背景音乐和杂音,这些都会降低视频生成效果。”

  贝壳财经记者发现,有网友在社交媒体上分享了制作该类视频的工具,在一款名为“Rask AI”的软件里,只需将视频通过本地上传,并选择视频所需要转换的语言,点击生成后AI会自动处理。处理后的视频人物说话口型与所用语言一致。

  AI换声服务有的涉嫌侵犯作品的翻译权

  记者发现,AI换声的事情其实不只存在影视行业,今年5月,“AI孙燕姿”翻唱多首歌曲的事情引发关注。有法律人士指出, 此类AI孙燕姿作品存在版权问题。

   北京市 中闻律师事务所合伙人赵虎告诉贝壳财经记者,明星AI换声短视频可能侵犯了三种权利。第壹是翻译权,根据《著作权法》的规定,甭管是郭德纲的相声还是赵本山的小品,都是作品,享有著作权。而著作权其中一项子权利为翻译权,假如想要翻译一个作品,应该经过原作品著作权人的授权。第贰,信息网络流传权。如果没有取得他人作品的信息网络流传权,就把他人的作品上传到短视频平台上,那么就侵犯了他人作品的信息网络流传权。第叁,录音录像制作者权。未经授权,在互联网上流传录像制品也是侵权的。

  警惕AI换声背后的诈骗风险,接到骚扰电话小心对方窃取你的声音

  值得警惕的是,AI换声造成的危险距普通人的生活其实不遥远,记者发现,当前已发生了多起由AI换脸换声引发的诈骗案件。

  今年9月,徐州警方公布一则AI换声诈骗案件细节:高中生晶晶突然收到“好友”的转账求助,由于担忧被坑,晶晶要求对方发了一段语音,在确认是她熟悉的高中同学后,晶晶通过QQ转给对方2000元人民币,但收到钱后,对方便消失了,随后晶晶才反应过来自己被坑。

  这其实不是个例。

  今年5月, 包头市 公安局公布一则案件细节:郭先生的好友突然通过微信视频联系到他,称想要借郭先生公司的账户走一下账。基于视频聊天信任的条件下,郭先生先后分两笔把 430 万元给对方打了过去。最后,郭先生发现自己遇到了“高端”骗局,对方通过智能AI换脸技术,佯装成好友对他实施了诈骗。郭先生称,“我在视频中也确认了面孔和声音,所以才放松了戒备”。

  多地警方已对AI诈骗经常使用手段进行揭秘,其中就有“声音合成”方面的AI深度做假:骗子通过骚扰电话录音等来提取某人声音,获取素材后进行声音合成,从而可以用虚构的声音骗过对方。

  10月13日,国家金融监督管理总局在《关于警惕利用AI新型技术实施诈骗的危险提示》中指出,利用AI新型技术实施诈骗主要有“拟声”“换脸”两种手段,即通过模拟他人声音或形象诈骗信任,进而诈坑钱财。国家金融监督管理总局提醒广大金融消费者:第壹,网络渠道“眼见”不一定为实;第贰,转账转账务必核验对方身份;第叁,保护好相片、声音等个人信息。

手机扫码浏览该文章
 ● 相关资讯推荐
 ● 相关资讯专题
  • 网络建设业务咨询

   TEl:13626712526