人声消除之术

人声之术
张翔
(版权所有,欢迎交流传播)
写在前面的:
这是一篇关于消除歌曲中主唱部分声音信号方法的简单讨论。两个星期前刚刚考完DSP考试,百无聊赖之中打算做几首伴奏唱会儿卡拉OK发泄一下,结果发现网络上的伴奏文件质量一如既往的不尽如人意,于是打开Cubase试着用DSP的思路解决一下做伴奏的问题。而后经历了试验、请教教授、阅读文献,希望写下一些东西为朋友们无论在方法上还是思路上提供一点参考。在中国海洋大学的时候非常理解学生演出中“一伴奏难求”的痛苦,正如某位挚友所说:“这可是大学阶段演出最尖锐的难题啊!”笑谈归笑谈,如果有一个比较简单可行的方法去除一般歌曲中的人声只保留伴奏部分,对于不论是学生还是一般家庭娱乐都肯定都是非常好的消息。然而,科技的发展并没有那么快,虽然我相信这个课题会在不久的将来得到完美解决,但到现在为止,完美的解决方案依然在各种实验室处于研究阶段。
本文将在第一部分给出一个比较可行的去人声保留伴奏的方法,这一方法其实已经存在多年,本文只是
对其进行一个简单的介绍。这一方法的确适合相当一部分歌曲的伴奏制作,但并不一定适合所有歌曲。而在第二第三部分将给出这种方法的原理解释和讨论,并且对世界上这一课题的研究状态给出简单介绍,希望对有兴趣从事此课题研究的朋友提供一个简单的概观。
重庆商场发生火灾1.一种去除人声保留伴奏的方法:反相相加+修正
1.1方法一
图1.1
图1.1中显示的是这种方法所使用的几个音轨。这里使用的平台是Cubase。Track1为原始Stereo
音乐信号(双声道),Track2和Track3为分离开来的原始立体声信号的左右声道(都为Mono),其中对
右声道进行了反相(Phase Reverse)处理。而Track4为Track2和Track3的缩混结果(由于Track2和Track3都为Mono,因此缩混出来的Track4也为Mono)。Track5和Track6都为原始Stereo信号的拷贝
留作伴奏修正时使用。Track7为本人狼嚎的一段人声,作为验证伴奏质量和微调时使用的素材。
2012年中央1号文件其实这种方法相当简单,相信已经有无数的朋友正在使用。下边是这种做法的流程,原理将在下
一节进行讨论:
第一步:把原始音频Stereo信号的左右声道剥离开来成为两路独立的Mono信号(Track2和Track3);
第二步:对分开的两路Mono信号中的一路进行反相(Phase Reverse)处理(这里的“相”指的是相位,有兴趣的朋友可以参考以下连接:baike.baidu/view/132570.html?wtp=tt以及
女人的决策
/wiki/Phase)。在Cubase中,Phase Reverse功能可以在Audio-Process-Phas米非司酮
e Reverse中到,在Cool Edit, Audition, Sonar, Logic, Samplitude等软件中也有相应功能,只需要在Google中键入相应混音软件名称和关键词“Phase Reverse”就可以到反相功能所在的目录。
第三步:将以上两路Mono信号缩混成为一路Mono信号(Track4)。
第四步:这一步是此方法中最关键的一步。把原始信号复制两份到两个新的音轨中(上边的
抑制的生活
Track5和Track6且全部为Stereo)。对其中一轨应用高通滤波器(截止频率≥1500Hz),另外一轨应
用低通滤波器(截止频率≤150Hz)。注意:这两个截止频率并不是一定的,而是需要根据不同歌曲仔
细调节。上边的例子以五月天的《突然好想你》为例,说明一下如何选择这个两个截止频率和相应的
Q值。
低频补偿轨(Track5):
图1.2
草甘膦母液我们对Track5应用了一个低通滤波器(Band3),将期Q值设定为2.7,而后将频率点设定为
79Hz。这时其实Band1和Band2的设定对EQ的频响曲线也是有影响的。值得注意的是,当Q值越大,在衰减曲线变陡的同时,在截止频率点上会出现一个增益的奇点(图1.2中Band2点处)。这是由于Two-Pole滤波器的频响特性决定的,而一般软件EQ中的低通滤波器都是采用的这种算法(参考
ccrma.stanford.edu/~jos/fp/Resonator_Bandwidth_Terms_Pole.html)。为了减小这个奇点过度增益,我们需要在保证低通滤波器的Q值不过大的同时,适当调整Band1和Band2的Q值和频点,来在一定程度上对 Band3这个低通滤波器进行一定修正。
相应的,我们对Track5应用一个高通滤波器,些时同样会出现相关的奇点问题(参考:
ccrma.stanford.edu/~jos/fp/Two_Zero.html),依照上面的方法调整好此高通滤波器。
图1.3
调节这两个高、低频补偿轨的思路:
在调节高、低频补偿轨的时候,首先需要把相应轨道中的人声部分的频率尽量排除掉,而只保留
比人声频率高和低的两部分频率来对上边的Track4进行一定补偿。截止频率的选择最好是刚刚听不到
原唱的声音。下一节将解释这么做的原因。
简单说明:我们都知道人声的主频范围大概在100-1kHz左右,而每个人发声时产生的泛音频率的
频率及其能量分量又各不相同,根据不同的人的特点,这一频率范围可能会变窄也可能会变宽。换句
话说:一首歌曲中主唱歌手声音所在的频率范围是因人而异的,甚至是因曲子和混音师而异(唱片的
混音师的听音习惯不同,在混音时对人声采用的激励量也不同,造成泛音的分布情况会各不相同)。
此外,还有一个相当重要的因素需要注意,一般软件EQ的增益衰减值都可以做到大于上下18dB,如
果所使用的EQ的增益衰减值小于这个值,建议使用处理动态范围更大的EQ或使用此EQ的大动态档
进行处理。之所以使用两个单独的音轨分别使用两个EQ是因为,EQ是一串Biquad滤波器的组合,这其中既有上边提到过的two-pole也有好多例如one-pole, one-zeros等等的滤波器。使用越少的滤波器越不容易造成对周围滤波器的影响。如果在一个EQ中使用所谓的“带切”(Band Block)滤波器,理论上讲可行,但操作起来,人声部分频率的衰减效果和人声外频率的保留效果都不尽如人意,而且很有可能造成一些令人讨厌的“奇点”,增加调节难度。
第五步:录制一段人声进去跟着伴奏进行演唱(Track7)。此时再次调节Track5和Track6的EQ 设定,即使单独听伴奏时会有一定原唱声音若隐若现,如果加上伴奏后这些声音基本听不到了,那么结果也是可以接受的。
1.2方法二:
采用上边的思路,为了节省系统资源,我们减少使用的音轨数目,而使用Routing(路由)的方法(估计在读到刚才的方法时已经有朋友大骂道这种方式太浪费系统资源了,呵呵)。
图1.4
图1.4的思路和方法一中完全一样,只不过不需要大量的音轨拷贝。我们把原始信号(Track1)分开为两路Mono信号(Track2和Track3,其中Track3已经进行反相处理),然后将Track1发送到两路Aux中(Track5和Track6)然后对这两路Aux加载EQ进行高低频的补偿,而后将Track2和Track3发送到另外一路Aux(Track4)作为主伴奏Mono信号,再将Track4这一路Aux发送到Track5这一路新的Aux里,并对Track5进行带通滤波,从而对伴奏的中频部分进行一定补偿(方法一中没有对伴奏的
中频进行补偿)。得到的结果和方法一是相同的,但这种方法会大大减少系统资源的使用,降低运算时间。
1.3小结
对低频的补偿几乎在每首歌曲中都要使用到,下边会对这一点的原因进行分析。而高频和中频的补偿并不一定每首歌曲都会用到,可以根据自己的耳朵来决定对于特定的歌曲是否需要使用中频和高频的补偿。
建议不论使用什么音频处理平台,可以建立一个工程模板,在制作新伴奏的时候只需要把四轨信号贴到工程模板中就可以进行处理,而不需要每一次都进行路由的设置和EQ等效果器的调节,减少批量处理时的工作量。
图1.5是这一思路的信号框图。
图1.5

本文发布于:2024-09-23 08:17:49,感谢您对本站的认可!

本文链接:https://www.17tex.com/xueshu/202393.html

版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,我们将在24小时内删除。

标签:伴奏   方法   人声   使用   信号   进行   频率
留言与评论(共有 0 条评论)
   
验证码:
Copyright ©2019-2024 Comsenz Inc.Powered by © 易纺专利技术学习网 豫ICP备2022007602号 豫公网安备41160202000603 站长QQ:729038198 关于我们 投诉建议