一个角色不可能永远高兴或永远悲伤,邵逸明填完第一个角色,想了想,复制出一份,在角色名字后面加了个括号(低落),微调了一下参数,换了一个滤镜,用来表示该角色不开心时的状态。
很快,各个角色以及它们的复制体建立完毕,可以开始编辑详细语句了。
每一句的可编辑参数都显示在右侧属性编辑器里,和角色卡里的参数几乎一模一样,也有情感滤镜选项。邵逸明立刻意识到,所谓的角色卡,其实就是一个参数模型。
属性编辑器里,唯一和角色卡不一样的,就是音频液化曲线,像手机a一样,可以对某一个句子的不同时间点,进行最细微的调整。
编辑完角色、编辑完语句,软件自动合成音频,这段音频显示在右下方的音效素材库里,可以拖入多轨道编辑器进行剪辑。音效素材库链接到云端,用户可以从中下载所需要的任何音效。当然,也可以自己导入。
到这里为止,这个软件只是普通的配音软件而已,功能无非是模仿人类的声音,细化了各种可调参数。
用这个软件来做广播剧的话,只要设定好角色,输入剧本就可以输出音频。但这样做出来的广播剧非常“标准化”,用邵逸明的话说就是“平平无奇、没有灵魂。”
如果对广播剧进行精细化的微调,可以达成很好的效果,甚至能调出专业配音都达不到的水平,但那样又太慢了,要一点一点抠到天荒地老。
邵逸明心想,这个软件是不是有点鸡肋?一键生成的作品比较粗糙,精细制作的效率又不如人工配音。
当然,可以用这个软件生成大量粗糙的ugc作品,人们对ugc作品的要求一向很低,就像网友自己利用游戏制作的电影,再粗糙也有粉丝。
但它也只能用大量粗糙作品填充低端音频市场,或者出一两部极其精细的“神作”,真正的中端精品内容,还是只能由gc产出。
这个想法才刚冒出来,邵逸明突然发现,软件里还有一个功能。
“ai换声,这是什么?”
他一下子打了个激灵,想到ai换脸、ai换人……“草,不会是我想的那样吧?”
还真就是他想的那样。
ai换声的功能是,可以自己为某个角色配音,ai系统会学习他的声学数据,换成系统预置音色。类似于变声器的功能,但不是实时变声。
弄懂这个功能之后,他直接摘下耳机,坐在椅子上,喃喃道“补齐了。”
软件的最后一个缺陷也补齐了。
精细制作效率低?不,我们可以ai换声。嫌调参数麻烦,就自己配音,再换成角色的声音。
邵逸明是做音频内容运营的,他一下子就想出了,这个软件发布后,广播剧的制作模式将会发生多么翻天覆地的改变。
在低端市场,只要设定好角色、输入剧本、适当添加音效,就可以一键生成广播剧。这种广播剧比较套路化,该有的语气声调样样不缺,但比较缺乏表现力。这就像是一部演技很差的偶像剧。
在中端市场,依旧是按照上述模式生成广播剧,但在比较关键、比较需要表达力的篇幅上,可以由配音演员进行配音,再替换成角色的声音。全程配音替换也可以,总之,只要一个配音演员够了,一个人就能完成一整个剧组的工作。这种广播剧就像是偶尔演技爆发的普通电视剧。
在高端市场,用软件对广播剧进行不厌其烦的精细微调,可以完成非常高级的表达。这种广播剧,大概就像演技爆棚的大电影,普遍意义上的“神作”。
一部广播剧所需要的人才依旧是三种——编剧、导演、配音,但团队急剧缩水,最多只需要三个人。
一名编剧足以自己完成一部低端剧集,再加上一名配音,可以完成中端或高端剧集,如果编剧本身就是配音那更好了。至于导演,可有可无。
两个人能做,一个人也能做,超高效率的广播剧内容产出,这就是、这就是……
“这就是付费音频的ugc模式……”</p>