主题:哪位搞音频或者语音的,请教一个基本概念 -- 黑猫夜行
应该是解调,把频谱解调到低频去,然后用低通滤波得到包络。检波可不是滤波。
那个是频谱搬移的步骤, 应该叫解调
楼主的问题其实很简单:
wav文件里每个数据点里到底存的是什么?为什么加一点减一点听不出区别?
这单纯就是声音波形曲线如何离散量化的问题。44.1k的意思就是每1/44100秒做一次a/d。16bit就是每个a/d结果得到的数字是16位长,也就是说总共有2^16个也就是65536个离散量化级(也可能是2^15个,我忘了正负数如何处理的了,不过反正就是这意思)。
如果不做其他处理,那么这16位数据就是wav数据块里每个数据点里存的数。当然wav允许几种不同的存法,有PCM,alaw, ulaw等。这样文件里每个数据点里存的就是最初的16位原始数据再经过处理的结果(比如alaw,ulaw是原始数的log)。
至于为什么每个数据点加点减点听不出多大区别,可能有好几个原因。比如有的播放器自带normalizer,这样就把加的减的量等于过滤掉了。还有就是既然有那么多量化级,每次到底加多少减多少合适?人耳的敏感度不是线性的,有可能加的减的部分正好不敏感。还有溢出问题等等。
楼主说的不就是A/D和D/A转换的过程么?这里边涉及到调制解调的问题么?
那段的讨论吧。
按这个假设的数据,就是以44.1K的采样频率对源信号进行采样,然后把每一个采样点的采样结果,用一组16bit长的数字码来表示它的大小(幅度),这个过程称为数字编码,也可称作量化.采样频率的大小决定了采样过程中对高次谐波成分丢失的程度(如按44.1K采样就会丢掉源信号中22.05K以上的谐波成分),而编码的码元长度则决定了编码的精度,也就是码元越长,精度越高.这两者共同决定了采样编码过程中产生的失真的大小.
幅度采样的过程,简单地说,就是用一系列等幅度等间隔的脉冲,与源信号相乘,得到一系列幅度高低不同(按源信号变化规律变化)的脉冲.其波形就如前面njdy所说的"直方图"的样子(找不到相应的图片,只好干说了).这还不算真正的"数字信号",还要进行编码,也就是量化.量化的过程就是把这些高低不同的脉冲分别用一组组的二进制码元替代,每一组(16位)表示一个脉冲的大小,也就是把脉冲的幅度用一组16位的二进制数字表示了出来,这样得到的信号才是数字编码信号,在调制之前,称为数字基带信号.
所以,所谓量化就是把采样点的信号幅度,用二进制数字表达出来.量化的依据,当然就是源信号的被采样点的幅度了.
那么究竟是怎么回事呢?
但是你若"裁减得太狠了",超出了后续电路的动态允许范围,那么还原出来的信号幅度将被电路切割("削顶"),也就是产生失真,听起来就大不一样了,什么都听不到了也是有可能的.
D/A转换以后的信号是还原的连续波模拟信号,当然"不是一个点一个点独立的"。
说得不对的地方欢迎砸砖.
我没搞明白的是为什么一个D/A转换需要检波滤波呢?
检波是作频谱搬移,滤波是去掉某些频率成份,数学和物理上都是两个概念.求取包络线光滤波是不行的.
貌似不可以这么说.
事实上任何一段音乐的原始频带宽度都是无穷大的,那么是不是所有的"音乐色彩的丰富"程度都是一样的?
奈奎思特抽样率你说的是对的.
一般的音频采样就是幅度采样.也就是用一定频率的等幅脉冲与源信号相乘,让这一系列脉冲变成幅度按照源信号变化方式变化的不等幅脉冲.脉冲的幅度变化方式就是包络线的形状,与源信号的包络线是是一样的.
也就是你那个多少秒做一次a/d。
如果信号一直在base band上,应该不需要检波。加滤波是因为采样的时候不是理想的脉冲。
他都已经在wav文件找到每个数据点了,所以他感兴趣的不是采样频率该多少吧。
因为lz说了并不理解包络的复原。下面曾经的帖子也说了
而且lz自己在下面说了
我看就是对麦克风和D/A输出部分的不理解。