PCEVA,PC绝对领域,探寻真正的电脑知识
开启左侧

[讨论] 技嘉sniper5专题总述和音频芯片技术分析

[复制链接]
ivis 发表于 2013-6-18 17:09 | 显示全部楼层 |阅读模式
点击数:22612|回复数:51
本帖最后由 ivis 于 2014-7-31 09:54 编辑

技嘉今年8系的板子,给我的感觉是挺给力的。连我不太喜欢的BIOS,今年也有亮点确实不错。
板子只把玩了半天,测试了一部分项目,已经不在手上了,打算做五六个专题,后续会陆续发出
响应国家号召,没什么事情的话,也打算收心减少上网时间了,具体后续的到什么时候,目前也无法确定。
准备的主题,分以下几个方面:

主板好声音—Sniper 5和三平台下三套测试系统浅析(1
——就是这个整体的介绍,讲一些基本的理论性的东西。闲话一些事情。

主板好声音—Sniper 5WIN7下三套系统的测试(2
主流的系统下,看看三套设备的表现

主板好声音—Sniper 5WIN8.1下三套系统的测试(3
测试下主板在WIN8.1的音频的表现。

主板好声音—Sniper 5MAC MAVERIKCS 10.9三套系统的测试(4
这个是我个人最感兴趣的,打算做一版MAC驱动,看看sniper 5在下面的表现如何。是不是有惊艳的感觉。

主板好声音—Sniper 5驱动修改和测试(5
创新的东西软件做的向来还不错。在目前性能都差不多的情况下,软件丰富也绝对是个亮点。而且可以通过一些手段,用上高端声卡的软件和很多的功能。简单来说:板载的东西,高端的用法,专业的感觉。而且修改是非常简单的。   会修改几个版本,几种风格的驱动,来进行对比试听。



技嘉的主板和创新的声卡,都是我所喜欢的。尤其是对于日渐式微的独立声卡,更是抱着深厚的感情,想想当年,拿着创新XFi的工程卡,就开始在国内各种媒体评测XFi的时候,是那么的激动。现在一般人配个电脑,甚至都不会想到声卡这个两个字。你去找一块不集成声卡的主板,很难。在AC97以后,独立声卡位置显得特别尴尬。除了一些音频发烧友,和专业的用户,谁还会关注这个方面。
INTEL 动力不足,8系主板乏善可陈的大环境下,技嘉在声卡方面做出创新,也着实算一个亮点。与其说让我们激动的是那新颖的创意,不如说这个东西,让我们回忆起了我们那些年一起走过的日子,一起听过的声音。

写的这东西,没有稿费,不拿好处。这里只是从一个普通玩家的角度来看,来谈。我也懒得校对,又不用排版出片的,所要表达的意思,大家看明白就好。错误和疏漏也难免,还请大家体谅和指点。音频这个东西,有时候有很多主观的东西,同样的器材,同样的曲子,同时让很多人听,大家都有不同的感受和认识。
所以这也是我一直拖了好几天的原因,究竟要把握怎么样一个度。我说的,也只是我想到的而已,未必正确,但也可以给你一些参考。
—————————————————————分哥线——————————————————————————





下面就是第一个专题:

主板好声音—Sniper 5和三平台下三套测试系统浅析(1

第一部分,先来谈谈技嘉这块主板。


技嘉主板在技术创新和产品创意方面,一直都很非常不错的,很多产品都让人眼前一亮。而且技嘉主板采用创新公司的芯片,也早有惯例了。很多年前用技嘉的KT333 GA-7VRXP的时候,上面的芯片就是创新的CT5880。
感慨,当时只要一千出头,就可以买旗舰主板了,现在要3000多了。技术发展了,成本提高了,货币贬值了……各种无奈。

先来看看这块主板整体的音频设计。简单的一个介绍。

a.jpg

用于音频路径上隔离直流电压,达到保护效果的电容称耦合(交连)电容,此电容 影响声音的表现。
一般主板的耦合电容,多采用针对电源滤波设计的固态电容, 声音表现偏干、冷、硬,不是很耐听
技嘉采用Nichicon专为音响设计的ES无极性及MW电容,爱打磨的,省事了。



b.jpg

电源是影响声音表现的重要环节之一,好的电源设计可以大幅度降低底噪,技嘉这里针对音效区块设计有三组独立的线性稳压供电,可改善前端交换式电源的 影响, 分离数字及模拟供电区块,针对运放提供专门的±12V电源,用以提升模拟电路的 电源纯净度,可进一步强化经过放大后的声音表现。显然,你的噪音本来就大,经过运放放大,那么只可能更大。在一些声卡上,也可以
看到这样的设计,有些人还特意购买一些音频电源,不过往往是一些国外的洋垃圾,但是表现也很不错。电源好,是基础。


c.jpg

这是技嘉主板上音频处理的一个简单流程。

d.jpg

主板的线路中,冲斥着许多高速的数字噪声,这对较微弱的模拟音频会生一定程度 的干扰,影响声音表现
为了减少噪声干扰,技嘉将音效部分切割出独立的PCB区块,这可以确保噪声 不串入音频中进一步放大,获得较好的声音纯净度



e.jpg

我们最关注的这块主板,就采用了创新的CA0132。技嘉加了个罩子,为了屏蔽也为了美观。
1.jpg

这个芯片融合了音乐、剧院、游戏方面的用途,片具备4个独立的运算核心,加速音效处理并降低处理器占用,提供6声道24-bit 102dB高音质模拟音频输出。创新官方网站给的资料显示,该芯片运用了Sound Core3D 技术,在一颗芯片中集成了多个高性能DSP数字信号处理核心以及高质量的HD AudioCodec,具体包括:4个独立的Quartet DSP处理器核心,6通道24位DAC[102dB],4通道24位ADC[101dB]。
集成耳机放大器,数字麦克风接口,S/PDIF输入输出和GPIO。通过Dolby Digital解码认证,支持THX TruStudio Pro音效、EAX AdvancedHD 5.0音效,支持CrystalVoice语音处理。
高度集成的东西,好处就是简化外围电路设计,控制成本。缺点就是不要有太高期望,一分钱一分货的道理不会错。

下面我来说一下创新的这个芯片。



ivis  楼主| 发表于 2013-7-11 22:49 | 显示全部楼层
本帖最后由 ivis 于 2013-7-12 14:16 编辑

第二部分,大话创新芯片。


谈到创新这个芯片,说的东西,没有万把字,估计都打不住。可以说的东西,太多了。有很多让人回忆的东西。
能看明白的,能看下来的,我可以很明白的告诉你——曾经的骚年,你老了。

很多年前,我在一些平面媒体,和网站上做过XFi的评测,这个XFi评测,在当时是国内外最早的,因为当时XFi还没有发布,我拿到的是绿色PCB的工程卡。就是那个《拨动天地之弦——XFi......》这类名字的评测,当时在《微型计算机》和一些网站都有发。还是其他的一些驱动破解的分析文章,包括《聆听王者到来的脚步声 ——X-FI技术探讨》等等的这累文章,还有各种的《聆听水晶般的声音——》这类的题目的文章,还有在一些平面媒体发过很多年的音频技术普及文章。网上有大把的转载,可以参看。

对创新我是一直有一种个人感情在里面,特别是最近流行一些回忆范儿的矫情的东西,什么《致青春》,《那些年一起非礼过的女孩》等等,很多HIFI人士,都涌起了一种,那些年我们一起听过的声卡,那些年我们一起打磨过的音箱,那些年我们一起搞过的基  本理论。。。。。等等的情愫。

就这技嘉这个主板的这个芯片,我唠叨唠叨,致音频骚人那曾经年轻的心,那些渐渐远去的青葱岁月的背影。。。。。。。


ivis  楼主| 发表于 2013-7-11 22:50 | 显示全部楼层
本帖最后由 ivis 于 2013-7-12 18:04 编辑

PCEVA,有个说实话的氛围,
简单来说,我对创新是有感情的,很多创新的卡,我都有,不喜欢他的硬件,我也找个理由喜欢他家的软件,比较丰富。
毕竟曾经也让人激动过,但是这不妨碍我吐槽他。当然做市场的,和做技术的是两个领域,有些东西,还是要详细分析。

市场往往就是这样,对于一个厂商或一个产品,当我们开始怀念他,可怜他的时候,就已经很惨淡了。



来看这次用的这个芯片——CA0132

创新又在讳莫如深,故伎重演。不会放出什么详细的东西来。

好比当年的EMU10K1,宣传的那个恐怖,1000MIPS,媒体也跟着到处惊讶,到处赞叹。把同时代的XXX的几个产品,比的灰头土脸,结果最后揭晓了结果,什么1000MIPS。。。。。。。
看个表格,

050606_hd_zgw_xfi_tb3.gif

SBLIVE采用的当时宣传为1000MIPS的EMU10K1,竟然只有335MIPS,而号称四倍于EMU10K1的EMU10K2,也仅仅是424MIPS强。姑且认为这是宣传手段吧。你妹的,行业不景气,忽悠也是战斗力,

CA20K1号称是10000MIPS,CA20K2号称有12000MIPS,当然,20K2是桥接芯片和协议转换芯片,占了运算量。
CA0132一出来,在国外一些论坛就被骂了,然后把处理能力标称改到了600MIPS,还是被骂了,又换了说法,改到了1200MIPS,还是被骂了。这里面的详细原因,我后面会说。

别研究那么多了,简单一句话,别看广告,看音效。

创新的东西,不论他夸大不夸大,够用是肯定的,关键是能不能发挥好,挖掘好。


关于MIPS:每秒执行百万指令数,与之类似的还有MFLOPS。每秒执行百万浮点操作数。这里我们要知道,MIPS理论性的成分很多,用系统能够达到的执行指令的最大数度来衡量处理器的性能。其实这些指标的实际应用价值是有限的,只是个理论上的最大性能。系统中的带宽、延迟、I/O性能等都会影响这个指标。所有系统还是低于这个理论指标的执行速度的。



这是同样采用这个CA0132的高端货。
3.jpg
其实我还曾经想过,为什么技嘉不单独出个声卡,直接随着高端主板赠送就OK,也差不了多少。就类似这个东西。
4.jpg
后来想想,也没什么必要。这个东西,充其量,还真是个板载的档次。
再者估计也有授权方面的原因,创新也不喜欢别人插足自己的地盘。他如果早开放一些东西,早确立一些东西,也不至于现在这个屌丝样。要不是当年浪费了一些东西,自废武功,抱微软的大腿,结果VISTA出来,人家微软换口味了,创新被玩了。匆匆忙忙搞炼金,也没炼出个好前途。名字叫创新,却不好好琢磨着创新,唉,就这样了。




说了这么多,这个芯片究竟是如何,大家都无法得知,创新保密的。我也没拿到多少东西,
不过我们可以从一些方面分析一下。这是产品宣称的参数:
Sound Core3D,主要卖点包括高品质模拟音频回放/录制、低功耗、高集成度、低成本,针对主板集成HD Audio声卡和消费电子嵌入式应用领域。Sound Core3D在一颗芯片中集成了多个高性能DSP数字信号处理器核心以及高质量HD Audio Codec,具体包括:4个独立处理器核心的创新Quartet DSP,6声道24bit 102dB数模转换,4声道24bit 101dB模数转换,集成耳放,数字麦克风接口,S/PDIF输入输出以及GPIO。
功能方面,EAX Advanced HD 5.0音效自然不会缺席,Sound Core3D还通过了Dolby Digital解码认证,支持CrystalVoice语音处理和THX TruStudio Pro音效。
Sound Core3D为单芯片56-pin QFP封装,技嘉已经确定将首家在主板中搭载Sound Core3D集成声卡.


下面我就从这些参数揭示的东西,出发,来谈谈这个芯片能实现一下什么样的功能。


第一个 —— 关于是SRC的问题
谈到创新的东西,让人必须想起的一个东西就是SRC,这个问题一直困扰了创新多年。那么我们就先从SRC说起。
SRC(Sample Rate Convertor采样频率转换器)问题一直是创新声卡比较敏感的问题。SRC是AC97规范中的一个内容。AC97(Audio CODEC 97),是Intel联合Creative Labs,Analog Device,NS和Yamaha五家业界巨头制定的多媒体声卡规范。
  AC’97最大的特点就是双集成结构,分为数字信号控制和音频编码两个部分。为了降低电磁干扰,将数模转换(D/A)和模数转换(A/D)部分从主芯片中剥离,组成一个独立的处理单元来进行声音采样和编码。多出现与板载声卡上,一般是48pin QFP封装,也有的采用68pin封装。这样做的好处是规范设计,降低成本,将除信号采样编码外的各种音频处理都由CPU来进行运算,牺牲少量的系统资源和附带功能,以换取性价比,尤其在主板上搭载的比较多。

  AC’97出于节省成本的规范,里面有不少损害音质的操作,这就是我们要谈到的如SRC问题。AC’97规范中所有信号重新转换成一个统一的48kHz采样率输出,在非整数倍的转换中,尤其是当音源音量大时,谐波失真严重,噪声大;当然和算法有关系,但是SRC的影响是器决定作用的。

  AC97 SRC一般都通过软件运算转换,受驱动影响明显。也用采用硬件转换的,这就是我们提到的EMU10KX。我们以EMU10K1为例


2.jpg

如图,我们看到在EMU10K1的内部由一个SRC转换模块,负责数字音频信号的转化。数字音频接收器,接收从CD通过S/PDIF输入的数字信号,以及从麦克风输入的由ADC转换后的数字信号。然后通过SRC把其他非标准频率,比如CD格式的16bit/44.1kHz转换标准频率16bit/48kHz,交给音效处理器和数字音频混合器来处理。音效处理器和数字音频混合器就是EMU10K1的运算执行单元。处理完成的数据,经过SRC的转换,交给PCI总线和虚拟存储映射单元。我们知道,经过SRC的转换,48、44.1、32、24、22.05、16、11.025和8kHz音频流,都统一转换为48kHz。那么在EMU10K1的SRC转换是如何设计的呢?我们来看。
  我们以CD的输入是44.1kHz为例,输入为44.1kHz,输出是48kHz,这样轻微的频率的差异,将会导致输入输出采用频率相关相位的时间飘移,最终导致采样的重复或衰减。一个合理的方法就是通过使用PLL(锁相环)电路,强制锁定频率,使其精确的保持同步。这样胜过使用固定频率的振荡器(fixed frequency oscillator)。在专业的录音领域,要使用所有相互联系的数字音频设备,都保持同步,使用PLL电路是非常难实现的,同时成本也高昂。

  一个比较好的解决方案就使用SRC来解析输入采样比率和输出比率。这就需要一个采样比率传感器(Sample rate detector),可以持续的校正异步数字输入比率预测值(Sample rate estimate)。这个采样比率估算值保持了一个相位累加器(phase accumulator),这个相位累加器控制着一个16-point Smith-Gossett2采样率转换器。

  这样,通过采用一个异步频率转换器避免了采用踪迹锁相环电路(tracking PLL)带来的高成本。同时提供支持多通道、实时、异步的音频流。所以EMU10K1支持使用高品质异步采样比率转换的三路实时异步立体声音频流。

  所以,EMU10KX内部可以是有硬件SRC模块的,虽然效能不高,但是不可否认它的存在。

关于8点插值算法的问题
  很多人,在谈到SRC问题的同时,都习惯提到一个8点插值算法的问题。8-point Smith-Gossett2,我们简单的大个比方来说:假如在一个波形周期,经过非整数倍的频率转换以后,为了将波形即可能的还原,就需要等分,取8个点,来进行波形的还原工作。由此可见,取样的多少,直接影响了还原的波形的保真度。理论上,要取无数个点,才可以完美还愿,就是没有转换的损失了。实际上没有必要这样做,一是这样占用了太多的DSP的执行效能,从人耳对波形的分辨角度来说,也没有必要采用这么多采样点来进行还原。在SRC过程种,非整数倍的转换中,尤其是当音源音量大时,谐波失真严重,且在高频有不小的衰减,也正是插值算法的采样精度引起的。一般我们都认为Audigy2 SRC问题严重,就是由于是8点插值,8个采样点太少的缘故。其实一直以来这个看法,都存在问题。

  首先,我们要说的一点,就是EMU102中,根本就不是8点插值。其实在8点插值,只是以前很古老的声卡,才采用的算法。在SBLIVE 的EMU10K1中,就采用了升级的16点插值算法。采样点进一步的增多,精度进一步的提高。而到了EMU10K2,采用的就应该是24点插值了。同样采样精度进一步提高。到了SB XFi的EMU20K1中,究竟采用32点插值,还是更多,将是以后我们探讨的问题了,但是,可以肯定的就是,DSP执行效能越高,算法可以分配到的DSP运算资源就越多,可以采用的采样精度就越高,甚至64点插值取样等,都是可以显示的。无疑,这对解决SRC问题,是大有裨益的。

这是我多年前做专题是,对SRC的一个简单解释。


但是现在这个CA0132,是不存在SRC的,究其原因,后面我们的评测,会详细解释。创新可是当年可是费尽周折,都没有搞定,推出了很多种方案的。



我们知道EMU10KX在16bit/44.1kHz谐波失真依然很严重,尤其是在高频有不小的衰减,且有不短的振动。一直没有特别效果明显的改进。这个问题我们要从两个方面来客观的考虑:

  首先是这个卡的定位问题。我们知道,EMU10KX的民用卡,从SBLIVE开始,直到到Audigy4,都是定位为高性能的综合娱乐性能,从这方面来说,并没有太多的兼顾CD格式的音乐欣赏(用EMU10K2欣赏24bit/96kHz和24bit/192kHz的DVD格式音乐,就完全没有SRC损失,因为这是整数倍的转),这也是EMU10KX的SRC虽然性能不佳,但很长一段时间没有太大改进的一个客观条件。

  其次,就是SRC确实存在这样那样的问题,导致对CD格式音乐进行转换时损伤太大,那么这个问题是怎么解决的呢?我们来看。在Audigy4和Audigy2 ZS上,采用了的双晶振+硬件SRC芯片CS8420。双晶振中,一个频率是24kHz,负责48kHz音频信号的输出,一个是11.2896kHz,搭配这个单独的CS8420来负责44.1kHz音频信号的输出。这里,这个CS8420就是一个硬件的SRC芯片,而且身价不菲。

  这个性能的优良的单独的SRC芯片,就是为了降低EMU10KX中集成的SRC对44.1kHz信号转换的的损伤,提高CD格式音频的回放效果。
虽然有提高,但是效果不是太明显,提高的程度,远远对不起这颗芯片昂贵的身价。后来又进行了改进

到了创新的EMU系列专业卡,采用了DSP+FPGA的信号处理器来协同处理。对应这种系统,我们来做一个简单的分析。采用的这块XILINX的FPGA(现场可编程门阵列)和DSP类似,只是信号处理系统在构成、处理能力以及计算问题到硬件结构映射方法的不同,分别属于不同的类别,可以简单的认为,这是两类不同的处理器。为什么采用这种结构,就可以彻底解决SRC问题呢?我们来继续分析。
  DSP+FPGA结构最大的特点就是结构灵活,通用性强,对不同结构的算法都有较强的适应能力。适于模块化设计,从而能够提高算法效率。采用DSP+FPGA结构设计,开发周期较短,系统易于维护和扩展,适合于实时信号处理。

  实时信号处理系统中,低层的信号预处理算法处理的数据量大,对处理速度的要求高,但运算结构相对比较简单,适于用FPGA进行硬件实现,这样能同时兼顾速度及灵活性。高层处理算法的特点是所处理的数据量较低层算法少,但算法的控制结构复杂,适于用运算速度高、寻址方式灵活、通信机制强大的DSP芯片来实现。

  到这里,问题就明朗了,FPGA可以做大量的运算工作,这其中我们可以简单的进行一下分类。将涉及到SRC转换的类似44.1kHz这样的非整数倍频率的音频信号处理,我们可以交给FPGA来处理,然后直接输出,这样就避免了经过EMU10KX中的SRC执行模块。从而绕过了SRC问题。(当然这里FPGA可以处理很多方面的运算,这里我们只是从SRC的角度来分析)但是在 XFi上,是凭借强大运算能力,为SRC分配更多的运算资源,进行诸如提高采样精度的一系列处理方式,进一步的来解决SRC问题了。


XFi解决SRC,靠的是DSP的硬功夫,我们来看这个DSP。



DSP(digital signalprocessor)即数字信号处理器。是我们一般的通用的叫法,DSP指的就是一种具有特殊结构的微处理器。(关于DSP深入得解析,我们会在下期做专题解释)。基于芯片研发能力的提高,DSP的内部结构,也做了一些改变,使得处理性能大大增强。为了强化自己的芯片处理能力,一些研发机构采用了新的命名,比如我们熟悉的EMU10KX系列,就命名为digital audio processor。这里,大家明确这种称呼即可。按照约定俗成得叫法,我们下面得内容,依然采用DSP这个名字来进行分析。

DSP的性能,在决定了声卡的音频信号处理性能。通过下面的比较,我们便会知道如何衡量DSP的处理能力。
XFiDSP EMU20K1的执行能力为10340MIPS,是EMU10K224倍。

X-Fi DSP这样带来的直接的好处就是:
降低CPU占用率
DSP是如何提高处理能力,降低CPU占用率的。
DSP的设计中,采用了数据总线和程序总线分离的哈佛结构,这样程序与数据存储空间分开,各自有独立的地址总线和数据总线,取指和读数可以同时进行。我们知道,降低处理器性能的就是延迟,简单来说,就是等待,一条指令处理完了,等到下一条的指令的时间,是被白白的浪费的。把两类总线分开,互不干扰,同时进行,自然可以提高处理性能。


  目前高性能的处理器,都采用了流水线设计,大家在接触CPU相关知识时,会经常遇到这个概念。所谓的流水线,就是把要执行每条执行划分为取指令、译码、执行等若干步骤,由片内多个功能单元分别完成。这是一种非常优秀的设计思路。在不大量增加硬件成本的基础上,就可以成倍的提高性能。同时我们还知道,采用多级流水线,可以最大限度的提升频率。简单来说,级数越多,好比是同一件工作,交给越多的人来完成,这样每个人工作量就越少,完成工作所用的时间就少,效率就高。从处理器的角度来说,也是这个道理,流水线级数越少,数据通路越长,执行起来所用的时间就越长,频率就越低。级数越多,流水段的负荷越小,单个流水段的执行时间就越短,时钟频率就越高。高的频率是提高处理器执行效能很关键的一个方面。

  DSP采用多套的独立的运算单元,多个运算单元同时执行,并行处理,自然提高了执行效能。同时DSP内采用了一组或多组的独立的DMA总线和控制器与CPU的程序、数据总线并行工作,数据的传递和处理可以独立进行。DMA内部总线与系统总线完全分开,避开了总线使用上的瓶颈。

  从上面的分析,我们便可以了解到,高性能的DSP,可以极大的提高处理能力,同时降低了CPU的干预,独立进行运算,自然降低了CPU的占用率。从节省系统执行资源的角度来说,采用的DSP执行效能越高的声卡,性能就越好。

同时这个DSP,也可以处理更多的特效,后面我会详细说下这个芯片的特效。


DSP执行能力高的好处,更体现在可以增加更多的特效,这对应声卡来说,尤为重要。我们拿创新的EAX来举例。EAX(Environment Audio eXtentions),通过强大的EMU10KX的执行能力,结合EAX5.0,除了可以加载原来的效果器外,还可以搭载5组外挂的VST,以及DXi效果器,和100多种特殊背景环境音效。从下面下面相关资料的描述,可见一斑,“卡啦OK不单只是开回音,你甚至可以选择均化你的声音,变声唱歌,搭配背景有人安可与鼓掌。对专业的录音工作者而言,支持标准ASIO 2.0的Audigy3实时搭载这些效果器,也不会对监听造成太大的延迟。据了解透过XFi的DSP的强大运算性能,以往最令人头痛的MIDI效果器对应问题也解决了,可自由对应。”可见,强大的XFi的EMU20K1 DSP,是EAX5.0的完美伴侣。正是有XFi的DSP强大的运算能力做后盾,EAX5.0才可以完美发挥。

那么XFi是怎么处理的SRC。多年前我做的专题也提到过。


  Creative的SRC问题是个比较敏感的问题。以前的EMU10KX在16bit/44.1kHz谐波失真依然很严重,尤其是在高频有不小的衰减,且有不短的振动。为了解决这个问题,也进行了过种尝试。比如采用双晶振+硬件SRC芯片CS8420。双晶振中,一个频率时24kHz,负责48kHz音频信号的输出,一个是11.2896kHz,搭配这个单独的CS8420来负责44.1kHz音频信号的输出。但是效果依然不佳。以前的DSP里的SRC结构还比较简单。以EMU10K1为例,在其内部有一个SRC转换模块,负责数字音频信号的转化。数字音频接收器,接收从CD通过S/PDIF输入的数字信号,以及从麦克风输入的由ADC转换后的数字信号。然后通过SRC把其他非标准频率,比如CD格式的16bit/44.1kHz转换标准频率16bit/48kHz,交给音效处理器和数字音频混合器来处理。音效处理器和数字音频混合器就是EMU10K1的运算执行单元。处理完成的数据,经过SRC的转换,交给PCI总线和虚拟存储映射单元。我们知道,经过SRC的转换,48、44.1、32、24、22.05、16、11.025和8kHz音频流,都统一转换为48kHz。那么在EMU10K1的SRC转换是如何设计的呢?我们来看。

  我们以CD的输入是44.1kHz为例,输入为44.1kHz,输出是48kHz,这样轻微的频率的差异,将会导致输入输出采用频率相关相位的时间飘移,最终导致采样的重复或衰减。一个合理的方法就是通过使用PLL(锁相环)电路,强制锁定频率,使其精确的保持同步。这样胜过使用固定频率的振荡器(fixed frequency oscillator)。在专业的录音领域,要使用所有相互联系的数字音频设备,都保持同步,使用PLL电路是非常难实现的,同时成本也高昂。

  一个比较好的解决方案就使用SRC来解析输入采样比率和输出比率。这就需要一个采样比率传感器(Sample rate detector),可以持续的校正异步数字输入比率预测值(Sample rate estimate)。这个采样比率估算值保持了一个相位累加器(phase accumulator),这个相位累加器控制着一个16-point Smith-Gossett2采样率转换器。

  这样,通过采用一个异步频率转换器避免了采用踪迹锁相环电路(tracking PLL)带来的高成本。同时提供支持多通道、实时、异步的音频流。所以EMU10K1支持使用高品质异步采样比率转换的三路实时异步立体声音频流。

  首先这我们可以看出来,在EMU10K1阶段就是用到了16-point Smith-Gossett2算法,到了Audigy2采用就是24点插值算法了。理论上来说,插值取样点越多,波形还原就好,SRC效果就越好。可以看到,单单是提高插值算法,是不能完整解决SRC问题的。

  这样到了XFi的EMU20K1,结构又做了进一步的优化设计。在EMU20K1中设计了一个保真度高达136dB的采样率转换器SRC引擎。EMU10K2芯片中,效果引擎仅限于能够处理定点数据运算,采样率转换SRC引擎的水平仅为86dB。这一新的架构实现了24位、192kHz效果处理以及目前最高技术水平的算法,以实现高质量的音频处理和超过300倍的SRC引擎方面的提升。在特定应用中使用到的实时效果数目和算法将根据需要进行资源优化,从而实现远远超越Audigy系列和Live!处理效能的高音频品质。

  EMU20K1中包含 256 个采样率转换器,每个都有一个可调整的采样率比率,可以精确地建造出虚拟现实的模型来。在某些应用,如 3D 音频和音乐合成中,会对大量的采样率转换器输出进行混音。为了在模数转换过程中使音频质量达到目标,每个转换器的 THD+N 性能必须十分优秀。EMU20K1还支持任意的信号图,允许音频进行多次采样率转换。为了能够对这些类型的信号图提供透明化的支持,X-Fi 采样率转换器只能有极低的波纹效果。为了满足在THD+N 和波纹效果的品质方面的要求,以及 X-Fi 采样率转换器的数量要求。如果按照传统的采样率转换器架构设计,造价将非常昂贵。于是EMU20K1采用了独特的三阶段结构。
050817_hd_zgw_x-fi_40.jpg


  第一阶段将将原有的采样率加倍。第二阶段使用一个多相 FIR 滤波器,产生一个采样率,该采样率是最终的目标输出采样率的四倍。第三阶段以四为除数,得到所需的采样率。第一个阶段的计算过程具有极高的效率。而最后一个阶段是以最小的计算成本,通过提供一个 steep anti-Imagine barrier 扩展来转换比率的。其实EMU20K1的SRC设计目标,就是使用多个串联或并联的采样率转换器,提供只受到模数转换器固有噪声限制的音频品质。不单单是具备了混合的SRC架构,更关键的是EMU20K1针对特殊的采样率转换器引擎,提供每秒 70 亿次以上的算术运算能力。这样信号数据路径经过流水线处理,乘法器和加法器的位宽也得到了优化,可以保证实现最高的信号品质。从这里也可以看出,EMU20K1的70% MIPS都消耗在SRC的原因了。而这其中很多就是被FIR用掉的,所以这个70%的DSP占用,还是有道理的。






注意我们提到的一个词汇是强大的DSP。

而且XFI是用大概7000MIPS的运算能力拿来处理SRC,游戏部分大概有2000MIPS,前面说了SB LIVE整个DSP也只有335MIPS。

这颗CA0132,最初宣传的运算能力,也只有600MIPS,后来被骂的修改了一下,才到了1200MIPS,显然如果靠DSP的运算能力来达到,没有可能。

究竟如何,呵呵。一层窗户纸而已。




















ivis  楼主| 发表于 2013-7-11 22:50 | 显示全部楼层
本帖最后由 ivis 于 2013-7-12 16:12 编辑


第二个,关于EAX 5.0

我们来看一下EAX5.0包含的内容。
  • 128 Voices - More Audio Detail Than Ever Before!
  • EAX Voice - Get Inside The Game!
  • EAX  PurePath - Truly Cinematic Gaming Audio
  • Environment FlexiFX - Xtreme Gaming Audio!
  • EAX MacroFX - Getting You Closer To Your Gaming Audio!
  • Environment Occlusion - OK, The Bad Guys Are Outside!


  EAX全名为Environmental Audio Extension,即环境音效指令集,是创新公司推出的API(Application Program Interface,即应用程序接口。,技术厂商将自己的特有音频技术开发为3D音频API,而对于软件开发商(如游戏开发商)来说,利用只要使用该API,即可实现不同的3D音效。
  EAX主要是针对一些特定环境,如音乐厅、走廊、房间、洞窟等,作成声音效果器,当电脑需要特殊音效时,可以透过DirectX和驱动程序让声卡处理,可以展现出不同声音在不同环境下的反应,并且通过多件式音箱的方式,达到立体的声音效果。其实到了EAX5.0已经不单纯是一个API了。已经是一套完整的音效解决方案。由两大部分组成,一是应用于音乐和与影剧院模式相配的EAX Music,一是应用于三维游戏音效引擎中的EAX Gaming。其中EAX Music比较着重于强化音效播放效果。EAX Gaming则着重于在游戏中的音频定位及各种声音特效。
EAX5.0主要的部分就是:多环境,环境过渡,环节过滤,环境位移,环境反射等先进特效。下面我们就来简单分析这些特效的实现。


环境过渡(Environment Morphing):
  在游戏中,当角色从一个环境,到另外一个环境,声音效果应该是逐渐过渡的,EAX4.0实现了从一种环境向另一种环境的无缝转换。而这在以前会非常生硬地切换到另一个环境效果,很不真实。环境渐变是与回响相关的最重要函数。以前的游戏没有逐渐过渡,只能通过设置一个渐变函数值。使用这些函数值形成一定的平均环境,得到不同声场的变化的平均效果,不是很真实。使用了EAX的环境渐变后,游戏效果不能通过使用不同的参数进行逐渐地改变,因为在EAX中,是通过调用预先设定的值来完成的。比如EAX演示一个从门口经过走廊到大厅的过程中,预先设置预几十个变量,把走廊做为中间参数,逐步调用就可以了。虽然实现起来非常简单,但是需要强大的DSP处理能力做保证。从前面的分析我们知道EMU10KX的处理能力足可以胜任这个工作。


环境过滤(Environment Filtering):
  通过环境过滤,EAX可以准确模拟声音同时在开放和封闭的环境中传播的效果。比如一个音源被定位在障碍物后。直接通路被遮挡住了,这就是障碍效果。这样就采用EAX的环境过滤来进行处理,依据障碍物的几何参数(厚度)和墙壁的制造材料来调用EAX函数的过滤度数。由于音源和角色之间没有直接的接触,音源的回波也根据同样的原则被压抑了。另外一个音源定位在关闭的门的后面,这就是封闭效果。一般处理方式,可以通过调低音量来实现,但更加实际的实现办法是使用低通过(low-pass)的过滤来改变声音的效果。这样处理以后,可以得到低沉压抑的声音。我们认为EAX这里使用HRTF(头部相关传输函数)技术,通过过滤或转换来进行模拟。?此外,还有排斥处理。比如音源和游戏角色在门敞开的不同的房间,这样直接的声音通过门可以传给角色。如何表现这类声音呢?EAX就依据墙壁材料的厚度,形状和属性对反射的声音进行失真处理,来表现声音这样细微的差别。


环境移位(Environment Panning):
  现实中,当游戏角色和一个环境的相对位置或距离不断变化的时候,声音效果也是变化的。比如我们设置一个场景:从门外进入到一条流着泉水的小屋子。就是创新软件中EAX演示带的场景。我们将从音源(一条从屋顶流到水池的泉水)到游戏角色的距离分为几个区域,距离越远,声音越小。这样,可以采用降低音量级的方式来进行处理。从音源到角色,没经过一个区域,声音强度降低几个dB。这样声音越来越小,在这几个区域之外,EAX引擎就可以关闭,这样还可以释放处DSP的运算资源。同时音量级是有对数相关性的。不同的音源的音量级是不同的,比如对应较大的声音和较安静的声音,音源也可以被区分为最小和最大的距离。例如流水在几个区域,声音就听不见了。而怪兽,则在几个区域之后,声音还很大。


环境反射(Environment Reflections):
  反射是一种在真实世界中声音从物体表面反射回到听者耳中的现象。环境反射不仅可以模拟出这种效果而且还能给声音反射加上三维空间定位。EAX在使用障碍效果处理的同时,还会使用环境反射处理。为了把音效完全融合到游戏里面,必须要计算出声环境和它与音源的交互作用,声音往往会经过几次反射到达角色。
  音源到游戏角色,有直接途径,有的则经过了一次或者多次反射,EAX是如何表现这样的效果呢,我们来分析:EAX引擎首先分析3D的空间的几何特征,然后再决定声波在该3D空间内的传播模式。然后根据反射物的几何形状来决定反射的途径和方式,根据反射物的材料属性,来决定反射的强度等相关特性。
  然后调用相关函数数据库,将游戏中的图形多变形,转换为声频多边形,利用EMU10KX强大的处理性能,达到实时的效果处理。这样处理过的3D声音,经过声学设计的房间和环境,声音信号能够在游戏玩家的耳朵里精确再现。比如在该游戏场景中,水池下的压抑模糊以及从屋顶留下来的泉水撞击水面的声响,都表现的非常逼真。有了XFi强大的DSP的处理效果,加载这些EAX函数,就非常的得心应手了。
  XFi为了加载EAX5.0特别增加了两倍的效果和存储器处理引擎以及对效果处理架构的进行了优化。这样缓解了DSP处理效能的占用,把节省出来达到MIPS分配到其他的运算中去。
  此外EAX5.0还包括EAX MacroFX,EAX PurePath 和Environment FlexiFX,这些官方网站都做了说明,我们这里就不做赘述了。特别提一点。分析这些要特别留意一个事实:
  2000年9月,创新收购了Aureal半导体公司。包括Aureal半导体公司拥有的专利,商标和其他一些知识产权。A3D采用的于几何即时混响,根据周围环境的几何形状,利用Aureal Wavetracing技术,通过数学模型来推断声音的折射、反射和衍射的方法处理声音数据可得到更真实的效果。
  在2003年12月,创新除了并购了Scipher的立体声部分——Sensaura之外,还包括Sensaura所有的知识产权和贸易协定。Sensaura 3D也采用了HRTF定位,同时,Sensaura 3D提自己的MacroFX、ZoomFX解决方案。其中,MacroFX可以根据不同情况预测精确的音量变化,按照距离分为6个区域,根据音源相对位置的不同,可以准确的计算出声音分别进入左右耳的时间差。 ZoomFX,可以处理运动的音源声音变化情况,使音源在发生远近变化时候得到平滑的曲线。
  而这些都是发生在EAX5.0发布前几年的事情了,这段时间,足够EAX5.0消化这些技术了。EAX5.0已经是个集各种音效处理技术之大成的完整的音效处理方案了。现在我们也能从EAX5.0中看到点A3D, Sensaura 3D的影子。





ivis  楼主| 发表于 2013-7-11 22:50 | 显示全部楼层
本帖最后由 ivis 于 2013-7-12 17:14 编辑

第三个,关于DTS

以EMU10KX为例
DTS ES是数码影院增强环绕声系统,拥有完全独立录制的后中置声道,有两种编码模式:DTS ES Discreate和DTS ES Matrix。DTS ES Discrete的后中置声道是通过非矩阵解码分离出来的,音质出色,但目前很少采用DTS ES Discrete录音。DTS ES Matrix模式的后中置声道通过矩阵编码分离出来,音质稍逊于DTS ES Discrete。Audigy2 ZS最先开始支持DTS/DTS ES解码的民用声卡。它允许用户通过矩阵编码将原有后方的两声道编码转换为三声道输出。用户可以感受全带宽的六声道输出,也能够使用高质量模拟7.1系统进行体验。  其实在我们的讲Audigy2简单硬改为Audigy2 ZS后,安装完毕Audigy2 ZS的驱动后,A2也支持DTS解码。由于从Audigy到AudigyZS来说,同属于EMU10K2,而且从Audigy2和AudigyZS我们分析到,解码设计的只是EMU10K2芯片本身。由于EMU10KX强大的可编程性,我们知道:只要将DTS解码指令集,集成到EMU10KX芯片中,配合驱动便可以支持DTS的硬件解码。关于DTS解码问题,软硬结合的可能性比较大,而不是单单的软件或者硬件解码。



ivis  楼主| 发表于 2013-7-11 22:50 | 显示全部楼层
本帖最后由 ivis 于 2013-7-12 17:55 编辑

第四个,关于Sout Mode


asrock_game_blaster_scout_mode_01.jpg


2013-6-20 11-07-56.jpg

这个侦查模式,先敌发现,炒了半天,也没有说个所以然。最多也就是几个强化版的3D定位技术。

从最简单的HRTF就可以了解个大概了。

  HRTF(Head Related Transfer Functions),头部相关传输函数。人类的听觉系统,正是通过这些轻微的时间差、电平差和频率响应差来判断音源的位置以及移动情况。这些就是头部相关传输函数——HRTF。HRTF是如何进行3D音频定位的,我们简单来看。
A. 人耳的基本的音频的定位原理
  定位原理就是ITD(Interaural Time Difference,两侧声音时间延迟差别)和IID(Interaural Intensity Difference,两侧声音强度差别)。其中ITD是指由于方位的不同,声音到达两耳的时间有差别,人脑就会判断音源位于到达时间早些的一侧。IID是指距离音源较近的耳朵,收到的声音强度比另一侧高,感到声音更大一些,人脑就会判断音源位于声音强度较高的一侧。我们来看个ITD和IID的模型。
  从上图中我们可以看出,音源发出的声音在较近的耳朵和较远的耳朵之间有一段明显的延迟,这就是ITD。这一点我们从音源、较近的左耳、较远的右耳三个位置的波形图上就可以看出来。下面是一个声音的最简单的模型——正弦波图形
  由正弦波得到的声音叫纯音。但我们平时听到的大部分声音不是纯音,而是复合音,这是由不同频率和振幅的正弦波叠加而成。横坐标为时间t,纵坐标为声音强度A(振幅amplitude)。我们假定音源的波形从坐标原点出发,延迟为0,振幅在图7中的三个波形图象中最大。
  声音经过在空气中的传播,有一定时间的延迟,声音强度进一步下降,到达较近的左耳。表现在波形图象就是声波图形离开原点一段位置,同时振幅减小。
  然后,声音再经过一定时间的延迟,声音强度进一步下降,到达比较远的右耳。这时候表现在波形图象就是声波图形离开原点更远的一段位置,振幅继续减小。
  我们从图中可以很直观的看出声音的延迟强度的变化。IID+ITD的结果是把音源定位到以听者两耳这间连线为轴线的锥体范围内。一般两耳间的距离约为15厘米,当波长大于15厘米时IIT和ITD将会减弱。因为波长大声音频率低,因此我们很难判断出低音的位置,但却能轻易分辨高音的方位。
  从上图可以看出,ITD和IID的高度角是发生变化,即音源的位置可能是在任何一个位置。这样只有ITD和IID来描述音源的变化是不够的。因为按照ITD和IID的模型,当音源处于头部正前方和正后方、正上方和正下方的时候,所取得是数据是一样的,并不能来完全描述音源的位置。
  
B.耳廓绕射效应和不同的频率振动。
  要全面的定位3D音频,耳廓的作用是非常大的,耳廓对于声音的定位,是至关重要的一环。耳廓的作用就是滤波器,根据声音的不同角度,加强、减弱声波能量,过滤之后传给大脑,让我们更准确确定音源源的位置。


  上图中我们分别选取了90度,45度、0度声波入射角,我们可以很清楚的看到到达耳廓的位置不同,反射角也不同。这样不同角度的声波在耳廓产生不同效果,到达鼓膜的位置也不同,然后在鼓膜上产生不同的频率振动。同时外耳道是一个中空的结构,这种结构造成的谐振会增益5kHz的信号,而正好是人听觉的最敏感频段,起到了一个声音放大的作用。这样音频定位会更准确。
C.声音的混响与掩蔽。
  一般来说,声音并不是直线进入耳朵,多是通过了几次反射才进入大脑。同时在音波行进的过程中,能量会减弱,加上反射造成的消音和延迟作用,声音已经有了变化。这种反射混合起来的效果称为交互混响。正是依靠着这些变化,我们才能判断周围的环境。
  具体来说,如果两个声音同时到达耳朵混合时,由于两个声音的频率、振幅不同,混合的结果也不同。其中如果两个声音强度大致相同,频率相差较大,就产生混合音。但若两个声音强度相差不大,频率也很接近,则会听到以两个声音频率的差数为频率的声音起伏现象,叫做拍音。如果两个声音强度相差较大,则只能感受到其中的一个较强的声音,这种现象就是声音的掩蔽。声音的掩蔽受频率和强度的影响。如果掩蔽音和被掩蔽音都是纯音,那么两个声音频率越接近,掩蔽作用越大。低频音对高频音的掩蔽作用比高频音对低频音的掩蔽作用大。掩蔽音强度提高,掩蔽作用增加,覆盖的频率范围也增加。掩蔽音强度减小,掩蔽作用覆盖的频率范围也减小。
  正是依靠这些声音相互作用的结果,耳朵才能更好的感知周围环境。
D.音源心理预测效应。
  人类大脑长时间感受声波,对一定情况下的声波有特定的心理反映。我们正是利用了这种音源心理预测效应,通过ITD、IID、耳廓震动频率等元素构建HRTF模型,通过“欺骗”,让人脑感觉到3D音频,这就是HRTF技术3D音频定位的原理所在。
  要利用HRTF,首先通过试验收集数据建立模型。这样当音源的位置变化的时候,通过高速DSP调用建立好的模型来进行实时处理,就可以得到非常真实的效果。
  感觉这个侦查模式,简单来说,就是一个杜比虚拟扬声器。同样道理,杜比虚拟扬声器的建模过程和HRTF是一致的。同样通过建立好的模型,然后被调用处理,达到欺骗人耳朵的目的。从而实现定位。








ivis  楼主| 发表于 2013-7-11 22:54 | 显示全部楼层
本帖最后由 ivis 于 2013-7-12 17:59 编辑

第五个,关于Quartet DSP。


其实这个概念,很早的时候,在XFi上就有了,我当年做评测时,谈到一个AUDIO RING结构。



x-fi_audio_ring.gif

  Audio Ring架构是一个灵活的结构。首先我们需要知道的是X-Fi DSP芯片内,分为7个部分:transport Engine (传输引擎),SRC Engine(SRC引擎),Tank Engine(存储引擎),Mixer Engine(混音引擎)、Filter Engine(过滤引擎)以及The Quartet DSP Engine(数字处理引擎),Audio I/O Engine(I/O接口引擎)这7个部分,不同于以往的设计音频流通路是固定的模式,而是采用动态的音频流通路,这就是Audio Ring结构。Auido ring是一个多管线实时分割的多元音频总线,这个总线最高支持4096个音频通道,但不代表这4096个通道是彼此独立的,这4096个音频通道被Audio ring结构控制成一个整体,这样通过创新独特的矩阵连接方式,来动态分配音频流和DSP运算资源。同时为配合高速处理的需要,需要通过transport Engine 外接2M内存,当然也可以升级到64MB。
  XFi的DSP是按照多处理引擎的架构设计的,因此有能力为了特定应用的需要重新分配资源的使用。正是有了这种结构,才可以针对不同的用途,进行优化,从而衍生出了三个模式。只要创新乐意细分,就是做出10个模式来,也很简单。当然会导致软件体积过大,也没有那么个必要。
  其实这个结构,有点类似中国传统哲学中的阴阳鱼图,在互化转移中,求得和谐,求得性能的最优化。不知道是一种巧合,还是这个架构的设计者了解阴阳互化的思想。


再看这个


Quartet DSP ,应该只是当时的一个处理引擎,单独拿了出来。这是一个SIMD(单指令多数据)处理器,有两个SIMD数据处理通道,支持定点浮点数据处理。


我们来看下CA20K1


DDF.jpg

这里面也包括一个四路的Quartet DSP,最大处理能力宣称1200MFOPS
也有硬件SRC和AUDIO RING结构。

DD.jpg

同样CA20K2,也采用了Quartet DSP。CA0132没有什么有价值的资料。讳莫如深

简单来说,这个东西,姑且把它当作是一颗CODEC吧,或者是一颗加强版的超级CODEC。无论如何够用就好了。


关于COCEC



CODECCOderDECoder合成的缩写字,直译为是编码器及译码器,指可将模拟讯号转成数字讯号,及将数字讯号还原成模拟讯号的组件,,一般我们把它简称为混音芯片


  Audio Accelerator和I/O控制器决定了芯片数字信号的质量, CODEC则决定了模拟输入输出的品质,而这正是我们最终感受到的声音。我们分二个部分来叙述。a.是AC97,b.是非AC97

  AC97,Audio CODEC ‘97,Intel联合Creative Labs,Analog Device,NS和Yamaha五家业界巨头制定的多媒体声卡规范。AC’97历经3次大的修改:AC’97 1.x,固定48kHz采样频率输出;AC’97 2.1:扩展了部分音频特征,支持多采样率输出及多声道输出;AC’97 2.2,更加完善和扩展了部分音频特征,支持S/PDIF(Sony/Philips Digital Interface,索尼飞利浦数字界面)输出。

  AC’97最大的特点就是双集成结构,分为数字信号控制和音频编码两个部分。为了降低电磁干扰,将数模转换(D/A)和模数转换(A/D)部分从主芯片中剥离,组成一个独立的处理单元来进行声音采样和编码。多出现与板载声卡上,48pin QFP封装,也有的采用68pin封装。这样做的好处是规范设计,降低成本,将除信号采样编码外的各种音频处理都由CPU来进行运算,牺牲系统资源和附带功能,以换取性价比,尤其在主板上搭载的比较多。

  非AC97。AC’97出于节省成本的规范,不具备强制性。规范中有不少损害音质的操作,如SRC(Sample Rate Convertor采样频率转换器)。AC’97规范中所有信号重新转换成一个统一的48kHz采样率输出,在非整数倍的转换中,尤其是当音源音量大时,谐波失真严重,噪声大;当然和算法有关系,但是SRC的影响也很大。AC97 SRC一般都通过软件运算转换(也有使用硬件SRC的,如CS4630),受驱动影响明显。非AC’97通常采用I2S(一种数字传输界面,适合短距离传输)和DSP进行数据交换(区别与AC97的AC-Link与DSP进行数据交换),使数字信号可以得到更高程度的保真。





创新这些年没什么大动静,但是也做了不少事情,

比如全面转向HDA,推出完整的PCIE HDA方案,USB 2.0等。现在做的就是板载。

创新要做板载,自然丰富的软件就是卖点,什么EAX Advanced HD  5.0、THX和CrystalVoice能加的都给他加上。
简单来说这个Sound Core3D在性能上优势也没多大,在功能上除了CrystalVoice这个应用小螃蟹没搞出来,其他的别人已经玩的很熟练了。
板载的市场还是螃蟹是老大,创新要走这条路,也只能拼高端了。
创新错过了AC97,也错过了HDAUDIO的前五年,要想追回来,还的抓点紧


______________________________________________________________________________________________________




先到这里了,都是一些基本的概念,比较枯燥,有些东西不完善,后续再补充。

后面的专题,开始写设备,写驱动修改,写MAC系统的安装调试,音频制作等,图片量大,也比较有趣。


多谢忍受。




wsy2220 发表于 2013-7-12 17:16 发自PCEVA移动客户端 | 显示全部楼层
本帖最后由 wsy2220 于 2013-7-12 17:21 编辑

先沙发再看

个人不太喜欢软件对声音进行处理,听久了总是不舒服
waterdq1004 发表于 2013-7-12 17:19 | 显示全部楼层
大力金刚指
buick5000 发表于 2013-7-12 18:07 | 显示全部楼层
多图杀猫啊。。。
印第安纳琼斯 发表于 2013-7-12 18:18 | 显示全部楼层
本帖最后由 印第安纳琼斯 于 2013-7-12 23:32 编辑

太长,先插队。坐等电路分析……

*还有,一个破nichicon电容没什么吧。反正电解电容高音都比较差。

*又回来看一下,“说了这么多,这个芯片究竟是如何,大家都无法得知,创新保密的。我也没拿到多少东西,”果然,真的技术指标只有这么一两个,真正要命的核心秘密(没捅破的窗户纸)又是一个也没见着。
lsababy 发表于 2013-7-12 18:27 | 显示全部楼层
。。。真长,长见识了
v724 发表于 2013-7-12 19:30 | 显示全部楼层
写这么多真是辛苦了
ryoma1836 发表于 2013-7-12 20:46 | 显示全部楼层
枪手IVIS
ivis  楼主| 发表于 2013-7-12 21:41 | 显示全部楼层
ryoma1836 发表于 2013-7-12 20:46
枪手IVIS

JRR
你见过吊毛都没拿一根的枪手,还的搭上电费


ryoma1836 发表于 2013-7-12 21:44 | 显示全部楼层
ivis 发表于 2013-7-12 21:41
JRR
你见过吊毛都没拿一根的枪手,还的搭上电费

吊毛没有找败家女拔一根下来
donnyng 发表于 2013-7-12 23:39 | 显示全部楼层
显然一直看创新从古到今一路演绎时钟不准的神话,表示会看不下去。
印第安纳琼斯 发表于 2013-7-13 09:37 | 显示全部楼层
本帖最后由 印第安纳琼斯 于 2013-7-13 11:03 编辑

关于这个时钟的问题我问过数字电路的专业人士:他说时钟影响确实很大,但同时也补充了,对于音频电路,如今只要不是太山寨的晶振完全能提供足够的精度,没必要担心晶振或换晶振什么的。这也跟如今的创新根本不在乎晶振的现象一致(早期也用过温度补偿晶振)。况且对时钟质量要求较高的是在录音时,单个设备回放时根本不是问题。最后就是如今DAC在设计的时候,都故意设计成对时钟抖动表现为低敏感度(英文不够好,从资料看大概是这个意思)

虽然有各种“流派”和玩法,但音频也是门科学,如果我没理解错石头的总纲领,我们PCEVA论坛崇尚的是科学和科学方法,类似“个人主观感受”的模拟两可的是不科学的东西,必须批判。当然不等于不能讨论,而是通过科学的方法去伪存真,证明不以人的意志而转移的科学原理。这让我想起我师父在第一天就教过:“不要拿你在HI FI学到的那一套搬到专业音响来”。

"音质是很主观的东西"这句话不知道见过多少次。但是在科学的音频领域里,音质是客观的东西,理想的音质只有一种。用频响图描述这种设备的特性,我们会看到在人耳听力范围内,是完美的一条直线。这就是讨论音质好坏的基础,绝对不允许有第二个标准。

而那些相位影响之类的东西,完全是杞人忧天的玄学。“相位”这个次在HIFI论坛曾经很流行,是伪音频技术的发烧友意淫出来的最好的忽悠,还真忽悠了不少人。“相位”确实存在,但是在专业领域讨论的“相位”与发烧友口中的“相位”不是一回事,而且专业领域对“相位”的要求还比较严格。比如:监听音箱的高音缩进音箱里面,高低音喇叭在分频点相位的衔接。

评分

参与人数 2活跃度 +10 收起 理由
ivis + 5 我说的是音频是个主管的东西,后面的解释也.
wsy2220 + 5 我很赞同!!!

查看全部评分

32492350 发表于 2013-7-13 14:29 | 显示全部楼层
和创新的 THD比起来怎么样
fanlei501 发表于 2013-7-13 17:03 | 显示全部楼层
撸主看过下面这篇文章没
声卡歪传
百度下
您需要登录后才可以回帖 登录 | 注册

本版积分规则

快速回复 返回顶部